美文网首页
k近邻算法

k近邻算法

作者: dreamintime | 来源:发表于2018-09-08 21:19 被阅读0次

    knn,k-nearest-neighbors分类算法。如果一个样本在特征空间中的k个最相邻的样本中的大多数属于某一个类别,那么该样本也属于该类别。

    knn_basic

    在二维平面上随机生成10个点,并将它们标记。

    import numpy as np
    X_raw=np.random.random((10,2))*10
    X_raw
    
    #output
    array([[4.75524752, 7.68492413],
           [1.02771195, 6.74087649],
           [3.78474663, 6.25722252],
           [2.92309566, 4.1122721 ],
           [5.68056271, 3.92225547],
           [6.07938619, 6.77750749],
           [6.00401888, 0.25916751],
           [7.88214967, 7.13444055],
           [6.56220062, 0.32779057],
           [0.62898795, 4.84822446]])
    
    y_raw=np.array([1,0,0,0,1,1,1,1,1,0])
    

    使用matplotlib.pyplot绘制散点图

    import matplotlib.pyplot as plt
    plt.scatter(X_raw[y_raw==0,0],X_raw[y_raw==0,1],color='blue');
    plt.scatter(X_raw[y_raw==1,0],X_raw[y_raw==1,1],color='red');
    
    scatter.png

    随机生成一个点,判断它应该被分为红色还是蓝色?

    new_point=np.random.random((1,2))*10
    new_point
    
    #output
    array([[2.45171953, 4.66062002]])
    

    使用欧拉距离计算生成的点与之前10个点的距离

    from math import sqrt
    distances=[sqrt(np.sum((new_point-x)**2)) for x in X_raw]
    distances
    
    #output
    [3.801664973962094,
     2.520965006043233,
     2.079928076084269,
     0.7231050393363991,
     3.31219118928088,
     4.200140232259464,
     5.656113054968524,
     5.967357830013087,
     5.972391966101662,
     1.8323607262669857]
    

    将存放10个距离值的列表中元素的索引进行排序

    index=np.argsort(distances)
    index
    
    array([3, 9, 2, 1, 4, 0, 5, 6, 7, 8])
    

    上面数组中第一个数字是3,代表最小元素索引为3,对应distances列表中的第四个元素0.7231........假设找离生成点最近的三个点,那么数组表示与索引为3,9,2的元素最近。

    让k=3, 找出对应的标记值

    k=3
    mark=y_raw[index[:k]]
    mark
    
    #output
    array([0, 0, 0])
    

    统计标记数量

    from collections import Counter
    vote=Counter(mark)
    vote.most_common(1)[0][0]
    
    #output
    0
    

    标记为0的数量最多,所以生成的点归为蓝色部分。knn就是完成类似这样的任务。

    从sklearn中加载digits数据集

    from sklearn import datasets
    digits=datasets.load_digits()
    digits.keys()
    #output:dict_keys(['data', 'target', 'target_names', 'images', 'DESCR'])
    

    将数据集传给x,分类标签传给y

    X=digits.data
    y=digits.target
    

    将数据集分成训练集和测试集,其中训练集占80%。这样划分可以知晓模型的准确率。方便调整参数,提高准确率。

    使用sklearn中封装好的相关函数

    from sklearn.model_selection import train_test_split
    X_train,X_test,y_train,y_test=train_test_split(X,y,test_size=0.2)
    

    设置网格参数,权重使用的是distance,k值是在1-10,p值在1-5

    param_grid=[
        {'weights':['distance'],
        'n_neighbors':[i for i in range(1,11)],
        'p':[p for p in range(1,6)]}
    ]
    

    生成分类器

    from sklearn.neighbors import KNeighborsClassifier
    knn_clf=KNeighborsClassifier()
    

    使用网格搜索,调整参数,然后训练模型

    from sklearn.model_selection import GridSearchCV
    grid_search=GridSearchCV(knn_clf,param_grid)
    %%time
    grid_search.fit(X_train,y_train)
    

    得到准确率和相应参数

    grid_search.best_score_
    #0.9826026443980515
    grid_search.best_params_
    #{'n_neighbors': 3, 'p': 2, 'weights': 'distance'}
    

    数据归一化

    不进行归一化,无法反映每一个特征的重要程度,所以要把数据映射到同一尺度上。
    最值归一化:x_scale=(X-X_min)/(X_max-X_min) 适用于分布有明显界限的情况。
    均值归一化:x_scale=(X-X_mean)/(std(X))。

    knn缺点:

    效率低下。如果训练集有m个样本,n个特征,则预测每一个数据需要o(m*n)。
    高度数据相关,依赖数据。
    预测结果不具有可解释性。
    随着维数的增加,“看似相近”的两点之间的距离越来越大。

    相关文章

      网友评论

          本文标题:k近邻算法

          本文链接:https://www.haomeiwen.com/subject/hrjlgftx.html