美文网首页
08-k-近邻算法

08-k-近邻算法

作者: jxvl假装 | 来源:发表于2019-10-01 14:48 被阅读0次
"""
k-近邻算法:如果一个样本在特征空间中的k个最相似的(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别
    最开始由Cover和Hart提出
    如何求距离:特征值差的平方的和再开方,也称欧式距离。所以相似的样本,特征之间的值应该都是相近的
    为了保证特征之间的影响一样大,应该做标准化
    api:sklearn.neighbors.KNeighborsClassifierr(n_neighbors=5,algorithm="auto")

    总结:
        k的大小:k值取太小容易受异常点影响;k值取很大,容易受k值数量(类别)的波动
        性能问题:时间复杂度高(要算每个点的距离)
        优点:
            简单,容易理解,易于实现,无需估计参数,无需训练(因为距离固定,所以计算结果是固定的)
        缺点;
            懒惰算法,对测试样本分类时的计算量大,内存开销大
            必须指定k值,k值当则分类精度不能保证
        使用场景:
            由于缺点比较大,所以实际中基本不用。可在小数据场景中使用(几k至几w)
"""
"""案例:预测入住位置"""
import pandas as pd
from sklearn.neighbors import KNeighborsClassifier
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import StandardScaler
from sklearn.datasets import load_iris
def knncls():
    """
    k-近邻预测用户签到位置
    :return: None
    """
    #读取数据
    data = pd.read_csv("./train.csv")
    #处理数据
        #缩小数据范围
    data = data.query("x > 1.0 & x < 1.25 & y > 2.5 &  7 < 2.75")
        #处理时间的数据pd.to_datatime:把时间戳转换成日期格式
    time_value = pd.to_datetime(data["time"], unit="s")
        #把日期格式转换成字典格式,以可以获得时、分、秒等数据
    time_value = pd.DatetimeIndex(time_value)
        #构造一些特征
    data["day"] = time_value.day  #增加列:注意,数据的量应当一样
    data["hour"] = time_value.hour
    data["weekday"] = time_value.weekday
        #把时间戳删除
    data.drop(['time'], axis=1) #注意:pandas和sklearn中的列不一样,sklearn中是1表时列
    """注意:在pd中每一步操作都有返回值"""
        #把签到数量少于n个目标位置删除
    place_count = data.groupby("place_id").count()  #此时,place_id就变成了索引
    tf = place_count[place_count.row_id > 3].reset_index()  #reset_index将索引变成一列数据。索引就变成了0、1、2...
    data = data[data['place_id'].isin(tf.place_id)]
        #取出数据当中的特征值和目标值
    y = data['place_id']
    x = data.drop(['place_id'], axis=1)

    #进行数据的分割
    x_train, x_test, y_train, y_test = train_test_split(x, y, test_size=0.25)
    #特征工程(标准化)
    std = StandardScaler()
    x_train = std.fit_transform(x_train)  #对测试集和训练集的特征值进行标准化
    x_test = std.fit_transform(x_test)

    #进行算法流程
    knn = KNeighborsClassifier(n_neighbors=5)
    """算法实例化时的参数称为超参数"""
    knn.fit(x_train, y_train)
    #得出预测结果
    y_predict = knn.predict(x_test)
    print("预测的目标签到位置为:", y_predict)
    #得出准确率
    print("预测的准确率:", knn.score(x_test, y_test))
    return None


if __name__ == "__main__":
    knncls()

相关文章

  • 08-k-近邻算法

  • “k 近邻算法”综述

    “k 近邻算法”综述 本来题目想叫“白话 k 近邻算法”,后来想想,“k 近邻算法” 的描述几乎就是“白话”,所以...

  • 算法图解 (十)

    第十章 k最近邻算法 最近邻居法 在模式识别领域中, 最近邻居法(KNN 算法, 又译 K-近邻算法) 是一种用于...

  • 机器学习实战笔记 1)K-近邻算法:理论篇

    近邻算法K-近邻算法是机器学习分类算法中最简单的方法之一。在讲清楚K-近邻算法之前,我们先来看看它的一个简化版--...

  • KNN算法:K最近邻分类算法(K-NearestNeighbor

    一、KNN算法概述 最近邻算法,或者说K最近邻(KNN,K-NearestNeighbor)分类算法是数据挖掘分类...

  • 十大经典算法(五)

    六、KNN(K Nearest Neighbor) K近邻(有监督) KNN算法,即K近邻算法是一种监督学习算法,...

  • 模式识别——6 其他分类方法

    6.1 近邻法 6.1.1 最近邻法 6.1.2 K-近邻法 6.1.3 近邻法的快速算法 6.1.4剪辑近邻法 ...

  • k 近邻法

    k 近邻法 k 近邻算法 k 近邻模型 k 近邻法的实现:kd 树 搜索 kd 树 k 近邻模型实现 k 近邻模型...

  • 机器学习实战之K-近邻算法(二)

    机器学习实战之K-近邻算法(二) 2-1 K-近邻算法概述 简单的说,K-近邻算法采用测量不同特征值之间的距离方法...

  • K近邻

    一、模型 1.1概念 k-近邻算法是一种基本分类与回归方法,我们这里只讨论分类问题中的 k-近邻算法。k-近邻算法...

网友评论

      本文标题:08-k-近邻算法

      本文链接:https://www.haomeiwen.com/subject/wqluuctx.html