美文网首页
机器学习实战笔记 1)K-近邻算法:理论篇

机器学习实战笔记 1)K-近邻算法:理论篇

作者: Warren_Liu | 来源:发表于2017-02-17 11:35 被阅读43次

    近邻算法
    K-近邻算法是机器学习分类算法中最简单的方法之一。在讲清楚K-近邻算法之前,我们先来看看它的一个简化版---近邻算法。假设我们要对一部电影分类:判断它是动作片还是爱情片(假设全世界的电影只有这两类)。我们发现有两个指标可以帮助我们判断:电影中的打斗镜头和接吻镜头。我们有一批数据,记录了电影里面两种镜头的个数及专家对它们的分类(这个数据集经常被称之为训练集)。数据如下:

    电影名称 打斗镜头 接吻镜头 电影类型
    California Man 3 104 爱情片
    He's Not Really into Dules 2 100 爱情片
    Beautiful Woman 1 81 爱情片
    Kevin Longblade 101 10 动作片
    Robo Slayer 3000 99 5 动作片
    Amped II 98 2 动作片

    我们现在要判断某电影X的电影类型,它的打斗镜头为18,接吻镜头为90。

    近邻算法的思想是在已知的六部电影中,找到与这部电影X最接近的电影,并将该电影的类型作为X的类型。

    如何求“最相近”
    在机器学习算法中,有很多计算距离的方法,我现在介绍两个最常用的距离:L1距离和L2距离。假设有两个点p1(x1, y1), p2(x2,y2),则L1距离的公式为:

    d(p1,p2) = |x1-x2| + |y1-y2|
    

    L2 的计算公式为:

    d(p1,p2) = sqrt((x1-x2)^2 + (y1-y2)^2)
    

    现在我们用L2距离来计算相似度,并求出与X最接近的电影,代码如下:

    #coding=utf-8
    import numpy as np
    
    data = np.array([[3,104], [2,100], [1,81], [101,10], [99,5], [98,2]])
    label = np.array(['爱情片','爱情片','爱情片','动作片','动作片','动作片'])
    
    target = np.array([18,90])
    
    diffs = data-target
    
    diffSum = []
    
    for diff in diffs:
        diffSum.append(np.sqrt(diff[0]**2 + diff[1]**2))
    
    
    
    print np.argmin(diffSum)
    print label[np.argmin(diffSum)]
    

    输出的结果表明,X电影与He's Not Really into Dules 最相似。所以我们可以把它归为爱情片。

    理解了近邻算法,k-近邻算法就非常容易理解了。k-近邻算法就是计算与电影X最接近的K(具体数目可以自己设定)个电影,然后取这个K个电影中类别数目最多的类别,并把它作为目标电影X的类别(代码在实战篇中会讲到)。

    数据的可视化
    我们可以使用matplotlib来对数据可视化,从而可以直观的感受我们为什么将X归为爱情片类别。可视化的代码为:

    import matplotlib.pyplot as plt
    import numpy as np
    fig = plt.figure()
    ax = fig.add_subplot(111)
    
    
    data = np.array([[3,104], [2,100], [1,81], [101,10], [99,5], [98,2]])
    label = np.array([1.,1.,1.,2.,2.,2.])
    
    ax.scatter(data[:,0], data[:,1], np.pi*20*(label**2), label)
    ax.scatter(18,90,np.pi*20*3, [[1,0,0]])
    
    plt.xlim(0)
    plt.ylim(0)
    plt.savefig('fig.png')
    plt.show()
    

    输出的结果图为:

    归一化特征

    现在我们知道要计算两个物体的相似度,就是计算它已知特征的距离之和。由于各个特征的变化范围不一样,导致各个特征在计算最终的相似度时权重不一样,如果我们假设各个特征的权重都一样,那么就必须对各个特征进行归一化处理。比如,我们现在使用k-近邻算法找最合适的相亲对象。我们有一批数据,记录每个人的几个特征及你对她们的喜爱程度,表格如下:

    |样本序号|玩视频游戏所耗时间百分比|每年获得的飞行常客里程数|每周消耗的冰激凌公升数|样本分类|
    |----|
    |1|0.8|400|0.5|1|
    |2|12|134000|0.9|3|
    |3|0|20000|1.1|2|
    |4|67|32000|0.1|2|

    我们发现里程数的差异已经远远大于其他特征的差异,这就导致其他特征几乎无法影响样本之间的差异了。所以,为了消除这些影响,我们将各个特征都归一化到[0,1](归一到任何相同的范围都可)之间,转换的代码为:

        newValue = (old_value-min)/(max-min)
    

    这个每个特征的范围都被归一化到[0,1]。

    理论知识已经讲解完毕,下面进入实战。

    相关文章

      网友评论

          本文标题:机器学习实战笔记 1)K-近邻算法:理论篇

          本文链接:https://www.haomeiwen.com/subject/bcehwttx.html