美文网首页
08-k-近邻算法

08-k-近邻算法

作者: jxvl假装 | 来源:发表于2019-10-01 14:48 被阅读0次
    """
    k-近邻算法:如果一个样本在特征空间中的k个最相似的(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别
        最开始由Cover和Hart提出
        如何求距离:特征值差的平方的和再开方,也称欧式距离。所以相似的样本,特征之间的值应该都是相近的
        为了保证特征之间的影响一样大,应该做标准化
        api:sklearn.neighbors.KNeighborsClassifierr(n_neighbors=5,algorithm="auto")
    
        总结:
            k的大小:k值取太小容易受异常点影响;k值取很大,容易受k值数量(类别)的波动
            性能问题:时间复杂度高(要算每个点的距离)
            优点:
                简单,容易理解,易于实现,无需估计参数,无需训练(因为距离固定,所以计算结果是固定的)
            缺点;
                懒惰算法,对测试样本分类时的计算量大,内存开销大
                必须指定k值,k值当则分类精度不能保证
            使用场景:
                由于缺点比较大,所以实际中基本不用。可在小数据场景中使用(几k至几w)
    """
    """案例:预测入住位置"""
    import pandas as pd
    from sklearn.neighbors import KNeighborsClassifier
    from sklearn.model_selection import train_test_split
    from sklearn.preprocessing import StandardScaler
    from sklearn.datasets import load_iris
    def knncls():
        """
        k-近邻预测用户签到位置
        :return: None
        """
        #读取数据
        data = pd.read_csv("./train.csv")
        #处理数据
            #缩小数据范围
        data = data.query("x > 1.0 & x < 1.25 & y > 2.5 &  7 < 2.75")
            #处理时间的数据pd.to_datatime:把时间戳转换成日期格式
        time_value = pd.to_datetime(data["time"], unit="s")
            #把日期格式转换成字典格式,以可以获得时、分、秒等数据
        time_value = pd.DatetimeIndex(time_value)
            #构造一些特征
        data["day"] = time_value.day  #增加列:注意,数据的量应当一样
        data["hour"] = time_value.hour
        data["weekday"] = time_value.weekday
            #把时间戳删除
        data.drop(['time'], axis=1) #注意:pandas和sklearn中的列不一样,sklearn中是1表时列
        """注意:在pd中每一步操作都有返回值"""
            #把签到数量少于n个目标位置删除
        place_count = data.groupby("place_id").count()  #此时,place_id就变成了索引
        tf = place_count[place_count.row_id > 3].reset_index()  #reset_index将索引变成一列数据。索引就变成了0、1、2...
        data = data[data['place_id'].isin(tf.place_id)]
            #取出数据当中的特征值和目标值
        y = data['place_id']
        x = data.drop(['place_id'], axis=1)
    
        #进行数据的分割
        x_train, x_test, y_train, y_test = train_test_split(x, y, test_size=0.25)
        #特征工程(标准化)
        std = StandardScaler()
        x_train = std.fit_transform(x_train)  #对测试集和训练集的特征值进行标准化
        x_test = std.fit_transform(x_test)
    
        #进行算法流程
        knn = KNeighborsClassifier(n_neighbors=5)
        """算法实例化时的参数称为超参数"""
        knn.fit(x_train, y_train)
        #得出预测结果
        y_predict = knn.predict(x_test)
        print("预测的目标签到位置为:", y_predict)
        #得出准确率
        print("预测的准确率:", knn.score(x_test, y_test))
        return None
    
    
    if __name__ == "__main__":
        knncls()
    

    相关文章

      网友评论

          本文标题:08-k-近邻算法

          本文链接:https://www.haomeiwen.com/subject/wqluuctx.html