美文网首页
统计学习方法之kNN算法

统计学习方法之kNN算法

作者: 程序员Morgan | 来源:发表于2018-09-02 14:20 被阅读0次

k 近邻是什么

k 近邻法是机器学习中最基本的分类和回归方法,也称为kNN算法。通常k近邻法用于分类问题。
k近邻法假定给定一个训练数据集,其中实例类别已定。分类时,对新的实例,根据其K个最近邻的训练实例类别,一般通过多数表决的方式来进行预测。

例如,有两堆水果,一堆是橙子,一堆是柚子,新拿到一个水果,判断是橙子还是柚子。一般来说,柚子更大更红。那么判断和该水果最相近的 3 个水果是什么,比如 3 个最近的邻居是柚子,那么我们可以判断新拿到的水果是柚子,这就是 kNN 算法。

k近邻算法

k近邻算法简单,直观有效。
输入:给定一个训练数据集T={(x1, y1), (x2, y2), ..., (xn, yn)}, 其中xi为实例的特征向量,yi为实例的类别。
输出:实例x所属的类y。

  1. 根据给定的距离度量, 在训练集T中寻找与x最近邻的k个点,涵盖这k个点的x的邻域记作Nk(x)
  2. 在Nk(x)中根据分类决策规则(如多数表决)决定x的类别y:


    其中I为指示函数,当yi = cj时I为1,否则I为0

特别的,当k=1时,称为最近邻算法。注意,k近邻法没有显示的学习过程。

K近邻模型

k近邻模型对应于特征空间的划分。模型由3个基本要素构成:

  • K值选择
  • 距离度量
  • 分类决策规则

训练集距离度量k值以及分类决策规则确定后,对于新输入的任何一个实例,它所属的类别唯一的确定。

距离度量

特征空间中的两个实例点是两个实例点相似程度的反映.k近邻模型的特征空间一般是n维的实数向量空间。



当p=2时,则是欧式距离。即:


当p=1时,则为曼哈顿距离


当p=∞时,则是各个坐标距离的最大值。


k值选择

k值的选择会对k近邻的结果产生重大影响。
如果选择较小的k值,则学习的近似误差减小,估计误差增大,预测结果会对近邻的实例点非常敏感。如果近邻点的实例点是噪声点,则预测会出错。因此,较小的k值意味着整体模型会变得复杂,容易过拟合。
如果选择较大的k值,则学习的近似误差增大,估计误差减小。预测结果也会受到与输入实例较远的实例点的影响,造成预测错误。因此,较大的k值意味着整体模型变得简单,容易欠拟合。

在应用中,一般k值选用一个比较小的数值,通常采用交叉验证法来选取最优值。

分类决策规则

k近邻法中的分类决策规则往往是多数表决,即由输入实例的 k 个邻近的训练实例的多数类决定输入实例的类别。

多数表决规则解释如下: 如果分类损失函数为 0-1 损失函数,分类函数为:


那么误分类的概率是:


对给定的实例 x 属于特征向量集,最近邻的 k 个训练实例点构成集合 Nk(x). 如何涵盖 Nk(x)的区域的类别是 cj,那么误分类是:


要使误分类率最小即经验风险最小, 就要使 ∑I(yi=cj)最大,所以多数表决规则等价于经验风险最小化

kd树

kd树是一种对k维空间中实例点进行存储以便对其进行快速检索的树形数据结构。kd树是二叉树,表示对k维空间的一个划分。构造kd树相当于不断地用垂直于坐标轴的超平面将k维空间切分,构成一系列的k维超矩形区域。kd树的每个结点对应于一个k维超矩形区域。

搜索 kd 树

kd 树的最近邻搜索算法:
输入:已构造 kd 树;目标点 x
输出: x 的最近邻
1.在 kd 树种找到含目标点 x 的叶结点: 从根节点处罚,递归地向下访问 kd 树。若目标点 x 当前维的坐标小于切分店的坐标,移动到左子结点,否则移动到右子节点,直到子节点为叶节点为止。
2.以此叶结点为"当前最近点"
3.递归地向上回退,在每个节点如下操作:

  • 如果该结点保存的实例点比当前最近点距离目标点更近,则以该实例点为"当前最近点"
  • 检查该子节点的父节点对应的另一子节点对应的区域是否有更近的点。
    4.当回退到根节点时,搜索结束。最后的"当前最近点"即为 x 的最近邻点

一般,实例点是随机分布的,kd 树搜索的平均计算复杂度是 O(logN). kd 树更适应于训练实例数远大于空间维数时的 k 近邻搜索。

总结

下一篇文章会用 kNN 分类器来实现一个推荐系统引擎系统,敬请期待。

相关文章

  • 面试题目总结

    算法 统计学习方法,每一个算法KNN,朴素贝叶斯,决策树,logistic回归,支持向量机,提升算法,EM算法,隐...

  • 统计学习方法之kNN算法

    k 近邻是什么 k 近邻法是机器学习中最基本的分类和回归方法,也称为kNN算法。通常k近邻法用于分类问题。k近邻法...

  • Python | K近邻实现(KNN)

    01 KNN可以做点什么呢? 在李航的《统计学习方法》中,详细讲解了一中分类算法:K近邻(K Nearest Ne...

  • kNN算法初识

    kNN 算法 基本原理 最近邻居法(KNN算法,又译K-近邻算法)是一种用于分类和回归的非参数统计方法。 在k-N...

  • 李航-第1章统计学习方法概论

    统计学习方法的三要素:模型、策略和算法。即:统计学习方法 = 模型 + 策略 +算法 基本概念 监督学习统计学习包...

  • 统计学习方法重难点—knn算法

    K近邻法 思路 确定要度量距离的算法,在训练集中找出与预测目标 x 最近的 k 个点。也就是说加入训练集有 N 个...

  • KNN与K-Means算法的区别

    内容参考:Kmeans算法与KNN算法的区别kNN与kMeans聚类算法的区别 KNN-近邻算法-分类算法 思想:...

  • 分类算法之K最近邻算法(KNN)的python实现

    分类算法之K最近邻算法(KNN)的Python实现 KNN的定义 所谓K近邻算法,即是给定一个训练数据集,对新的输...

  • 自然语言处理

    读书 数学之美 统计学习方法 李航 统计自然语言处理 宗庆成 需要数据结构与算法的知识

  • knn算法

    knn算法 knn算法简介 邻近算法,或者说K最近邻(kNN,k-NearestNeighbor)分类算法。所谓K...

网友评论

      本文标题:统计学习方法之kNN算法

      本文链接:https://www.haomeiwen.com/subject/sblmwftx.html