美文网首页
K近邻学习(KNN算法)

K近邻学习(KNN算法)

作者: DouMarK | 来源:发表于2019-01-14 04:57 被阅读31次

    KNN(K-Nearest Neighbor)工作原理:存在一个样本数据集合,也称为训练样本集,并且样本集中每个数据都存在标签,即我们知道样本集中每一数据与所属分类对应的关系。输入没有标签的数据后,将新数据中的每个特征与样本集中数据对应的特征进行比较,提取出样本集中特征最相似数据(最近邻)的分类标签。一般来说,我们只选择样本数据集中前k个最相似的数据,这就是k近邻算法中k的出处,通常k是不大于20的整数。最后选择k个最相似数据中出现次数最多的分类作为新数据的分类。
    SVM和KNN算法区别
    SVM算法样本需要固定,属于急切性学习,即在存在训练阶段,在学习模型中训练好后,与验证集比较,将低维度问题上升到高纬度
    KNN算法不需要固定样本数量,属于懒惰学习,没有显示的训练过程,它在训练阶段只是把数据保存下来,训练时间开销为0,等收到测试样本后进行处理

    KNN优点缺点:

    优点:
    1)用法灵活
    2)对于小样本预测方便
    3)精度高,对异常值不敏感、无数据输入假定
    缺点:
    1) 缺少训练阶段,无法应对多样本
    2)计算复杂度高、空间复杂度高

    KNN实现步骤:

    1)计算距离
    欧氏距离(Euclidean distance),即

    image.png

    2)按照距离的递增关系进行排序;

    3)选取距离最小的K个点(一般不大于20个);

    4)确定前K个点所在类别的出现频率;
    出现频率 =某个类别 / k
    5)返回前K个点中出现频率最高的类别作为测试数据的预测分类。

    KNN优缺点

    优点:精度高,对异常值不敏感、无数据输入假定
    缺点:计算复杂度高、空间复杂度高

    代码实现:

    MDS多维标度法

    因为KNN算法需要用到距离计算,但是在实际任务中,样本空间的维度都可能会比较高,在高维的情况下,可能会初夏距离样本稀释、距离计算困难等问。所以我们缓解高维空间带来的问题的重要途径是降维,即通过某种数学变化将原始空降的高维属性空间转化为一个低纬“子空间”



    降维的经典方法:MDS“多维缩放”算法

    算法实现:



    import numpy as np
    import operator
    
    def createDataset():
        #四组二维特征
        group = np.array([[5,115],[7,106],[56,11],[66,9]])
        #四组对应标签
        labels = ('动作片','动作片','爱情片','爱情片')
        return group,labels
    
    def classify(intX,dataSet,labels,k):
        '''
        KNN算法
        '''
        #numpy中shape[0]返回数组的行数,shape[1]返回列数
        #MDS降维操作
        dataSetSize = dataSet.shape[0]
        #去逆矩阵
        diffMat = np.tile(intX,(dataSetSize,1))-dataSet
        #二维特征相减后乘方
        sqdifMax = diffMat**2
        #计算距离
        seqDistances = sqdifMax.sum(axis=1)
        distances = seqDistances**0.5
        print ("distances:",distances)
        #返回distance中元素从小到大排序后的索引
        sortDistance = distances.argsort()
        print ("sortDistance:",sortDistance)
        classCount = {}
        for i in range(k):
            #取出前k个元素的类别
            voteLabel = labels[sortDistance[i]]
            print ("第%d个voteLabel=%s",i,voteLabel)
            classCount[voteLabel] = classCount.get(voteLabel,0)+1
        #dict.get(key,default=None),字典的get()方法,返回指定键的值,如果值不在字典中返回默认值。
        #计算类别次数
    
        #key=operator.itemgetter(1)根据字典的值进行排序
        #key=operator.itemgetter(0)根据字典的键进行排序
        #reverse降序排序字典
        sortedClassCount = sorted(classCount.items(),key = operator.itemgetter(1),reverse = True)
        #结果sortedClassCount = [('动作片', 2), ('爱情片', 1)]
        print ("sortedClassCount:",sortedClassCount)
        return sortedClassCount[0][0]
    
    
    
    if __name__ == '__main__':
        group,labels = createDataset()
        test = [20,101]
        test_class = classify(test,group,labels,3)
        print (test_class)
    

    码云地址:https://gitee.com/ZHBIT-MachineLearning/Machine-Learning-Base/tree/master/KNN

    相关文章

      网友评论

          本文标题:K近邻学习(KNN算法)

          本文链接:https://www.haomeiwen.com/subject/vnbrdqtx.html