机器学习系列(六)——knn算法原理与scikit-learn底

作者: Ice_spring | 来源:发表于2019-06-08 17:07 被阅读15次

    KNN算法

    本篇将介绍knn算法,knn算法因为思想非常简单,运用的数学知识比较浅显,是非常适合机器学习入门的算法。不仅如此,knn算法在很多分类问题上表现优异, k近邻算法最基本的可以解决分类问题,不过也可以解决回归问题(以后会介绍)。借助此算法,可以解释机器学习算法使用过程中的很多细节问题,从而更加完整地刻画机器学习应用的流程。


    下面以一个简单的肿瘤判别问题介绍knn是做什么的。


    knn1

    如上图所示,假设横轴方向表示肿瘤大小,纵轴方向表示肿瘤存在多久时间,绿色表示良性肿瘤,红色表示恶性肿瘤。现在有一个新的样本不知是良性还是恶性,要对它作出判断。knn算法的做法是,检查它周围的k个数据点,如果良性居多则判断为良性,否则判断为恶性。
    下面生成模拟数聚集:

    #展示算法原理(肿瘤判别)
    import numpy as np
    import matplotlib.pyplot as plt
    #生成模拟数据
    raw_data_x=[
        [3.393,2.331]
        ,[3.110,1.782]
        ,[1.344,3.368]
        ,[3.582,4.679]
        ,[2.281,2.867]
        ,[7.423,4.697]
        ,[5.745,3.534]
        ,[9.172,2.511]
        ,[7.793,3.424]
        ,[7.940,0.792]
    ]
    raw_data_y=[0,0,0,0,0,1,1,1,1,1]#0表示良性,1恶性
    x_train=np.array(raw_data_x)#制作训练集
    y_train=np.array(raw_data_y)
    

    数聚集共包含10个样本点,首先对数聚集做图得到直观的分布情况:

    '''首先作散点图观察数据分布'''
    plt.scatter(x_train[y_train==0,0],x_train[y_train==0,1],color='g')
    plt.scatter(x_train[y_train==1,0],x_train[y_train==1,1],color='r')
    plt.show()
    
    traindata

    现在新来了一个样本点[8.094,3.366],要判断是良性还是恶性,首先将它画入图中:

    ''' knn算法要作的是,判断新来的数据点属于哪一类'''
    x=np.array([8.094,3.366])
    '''为了看清楚新来点与其它点位置关系,上色为blue'''
    plt.scatter(x_train[y_train==0,0],x_train[y_train==0,1],color='g')
    plt.scatter(x_train[y_train==1,0],x_train[y_train==1,1],color='r')
    plt.scatter(x[0],x[1],color='b')
    plt.show()
    
    sample

    我们可以直观地判断这是恶性肿瘤,因为它周围几乎都是恶性肿瘤样本点,下面从原理的角度来看一下KNN流程:
    首先计算新的样本点与训练集各样本的距离,距离可以选用曼哈顿距离、欧式距离、明氏距离等,这里选用欧式距离:

    from math import sqrt
    distances=[]#欧式距离,曼哈顿距离,明式距离
    #计算新的样本点与训练集中每个样本点的距离
    for x_t in x_train:
        d = sqrt(np.sum((x_t - x)**2))#universal function,结果向量的每个元素都平方,再求和,然后开方
        distances.append(d)
    distances
    
    out:[4.813587643327999,
     5.2296569677178635,
     6.750000296296289,
     4.699160882540626,
     5.834378287358473,
     1.4905710315177867,
     2.354999999999999,
     1.37590297623052,
     0.30653711031455805,
     2.5786027224060706]
    

    或者生成表达式一步到位:

    #上面的过程python中一句话搞定
    distances=[sqrt(np.sum((x_t-x)**2)) for x_t in x_train]
    distances
    

    下面对距离进行排序,而且要知道排序对应的是哪个样本,使用argsort返回排序索引:

    #下面要进行排序,而且要知到排序结果是哪些点,用argsort
    np.argsort(distances)#sort默认升序排列
    out:array([8, 7, 5, 6, 9, 3, 0, 1, 4, 2])#即离x最近的是索引为8的点
    

    进行预测:
    nearest=np.argsort(distances)
    k=6
    返回与新来样本前6近的数据集样本类别:

    topk_y=[y_train[i] for i in nearest[:k]]#返回与给定样本点最近的k个样本的分类
    topk_y
    out:[1, 1, 1, 1, 1, 0]
    

    计数投票:

    #计数
    from collections import Counter
    Counter(topk_y)
    out:Counter({1: 5, 0: 1})
    

    上述结果表示最近的6个中,为1(恶性)有5个,为0(良性)有一个。于是给出预测结果:


    predict

    预测结果为1,即为恶性肿瘤。

    sklearn中的分类器

    函数方式封装knn分类器

    新建knn.py,内容如下:

    import numpy as np
    from math import sqrt
    from collections import Counter
    def kNN_classify(k,x_train,y_train,x):
        assert 1<=k<=x_train.shape[0],"k must be valid"
        assert x_train.shape[0] == y_train.shape[0],"must be same"
        assert x_train.shape[1]==x.shape[0],"must be the same"
    
        distances=[sqrt(np.sum((x_t-x)**2)) for x_t in x_train]
        nearest=np.argsort(distances)
    
        topk_y=[y_train[i] for i in nearest[:k]]
        votes=Counter(topk_y)
        predict_y=votes.most_common(1)[0][0]#knn预测结果
        return predict_y
    

    在jupyter notebook中:

    %run knn.py
    predict_y=kNN_classify(6,x_train,y_train,x)
    predict_y
    

    可以得到相同的预测结果。


    有人可能会有疑问了,不是说机器学习算法都需要建模之后训练模型吗,没错,但knn算法比较特殊,可以说knn是唯一一个不需要训练过程的算法,即输入样例可直接送给训练数剧集得到输出预测。由此也可以看出,knn算法是非常特殊的,可以被认为是没有模型的算法,为了和其它算法统一,可以认为训练集就是模型本身。这也是scikit-learn中的处理方式,为了所有机器学习算法有统一的宏观流程,都有fit和predict过程。knn的fit过程算是最简单的。

    sklearn中的knn

    上述过程也可以用sklearn中提供的机器学习算法实现,如实现knn算法:

    from sklearn.neighbors import KNeighborsClassifier
    kNN_classifier = KNeighborsClassifier(n_neighbors=6)#创建knnclassifier实例
    kNN_classifier.fit(x_train,y_train)#fit过程训练数据集,得到模型
    '''将x整理为矩阵格式'''
    x_new=x.reshape(1,-1)
    kNN_classifier.predict(x_new)
    out:array([1])
    

    注意:在sklearn中,输入进行预测的数据从version_19之后只支持矩阵格式的数据,不再支持单个数据预测了,如果要预测单个数据需要整理为矩阵格式。
    sklearn中实现机器学习的基本步骤一般包括三个:

    • 实例化分类器
    • 执行fit训练过程
    • 执行predict预测过程

    如在上述代码调用sklearn实现knn算法执行过程。

    改造我们的代码为sklearn代码调用格式

    我们可以修改自己的knn代码,使得在调用形式上和sklearn中调用knn算法是一样的,这能让我们更加理解knn算法和理解sklearn进行机器学习的流程。

    '''kNN_sklearn.py'''
    import numpy as np
    from math import sqrt
    from collections import Counter
    class kNNClassifier:
        def __init__(self,k):
    
            assert k>=1,"k must be valid"
            self.k=k
            self._x_train=None#训练数剧集外部用户不能随便操作,设为私有
            self._y_train=None
        def fit(self,x_train,y_train):
            assert x_train.shape[0] == y_train.shape[0],"must be same"
            assert self.k<=x_train.shape[0],"k must be valid"
    
            self._x_train=x_train
            self._y_train=y_train
    
            return self
            
    
        def predict(self,x_predict):
            '''给定待预测数剧集,给出预测结果向量'''
            assert self._x_train is not None and self._y_train is not None,"must fit before predict"
            assert x_predict.shape[1]==self._x_train.shape[1],"must be the same"
            
            y_predict=[self._predict(x) for x in x_predict]
            return np.array(y_predict)
    
    
        def _predict(self,x):
            '''给定单个的x,返回x的预测值'''
            assert x.shape[0]==self._x_train.shape[1],"must be the same"
            distances=[sqrt(np.sum((x_t-x)**2)) for x_t in self._x_train]
            nearest=np.argsort(distances)
    
            topk_y=[self._y_train[i] for i in nearest[:self.k]]
            votes=Counter(topk_y)
            return votes.most_common(1)[0][0]#knn预测结果
        
    
        def __repr__(self):
            return "kNN(k=%d)"%self.k
    

    然后就可以使用我们自己写的knn分类器了

    %run kNN_sklearn.py
    

    实例化、fit、预测

    knn_clf=kNNClassifier(k=6)
    knn_clf.fit(x_train,y_train)
    out:kNN(k=6)
    y_predict=knn_clf.predict(x_new)
    y_predict
    out:array([1])
    y_predict[0]
    out:1
    

    但实际中sklearn的算法为了在格式上统一比这个要复杂的多,这里只是简单实现了sklearn的底层。

    相关文章

      网友评论

        本文标题:机器学习系列(六)——knn算法原理与scikit-learn底

        本文链接:https://www.haomeiwen.com/subject/lxdixctx.html