美文网首页
PCA(主成分分析)初探

PCA(主成分分析)初探

作者: LiBiscuit | 来源:发表于2019-09-27 11:40 被阅读0次

小李又上线啦!最近因为身体和学习的原因又没有及时更新了。
今天的内容来自于前几天和大陈讲电话的时候,大陈教我的一个新的算法--PCA。
———————————————————————————

PCA(Principal Component Analysis)

PCA(Principal Component Analysis)即主成分分析,它是图像处理中经常用到的降维方法。举个例子,我们在处理图像的时候,一幅图像会有很多个特征点,每个特征点又有一个相应的描述该特征点的128维的向量,设想如果一幅图像有200个这种特征点,那么该幅图像就有200*vector(128维)个,那么假设我们数据库中有一百万张图片,需要较大空间,同时建立索引也很耗时,这时如果我们对每个向量进行降维处理,将其降维为64维,就会大大地节约存储空间和减少时间花费,这个时候我们就需要运用PCA去降维。

PCA算法思想

PCA的思想,简而言之是将维特征映射到维上,这维是全新的正交特征。这维特征称为主元,是重新构造出来的维特征。在PCA中,数据从原来的坐标系转换到新的坐标系下,新的坐标系的选择与数据本身相关的。第一个新坐标轴选择的是原始数据中方差最大的方向,第二个新坐标轴选择和第一个坐标轴正交且具有最大方差的方向。该过程一直重复,重复次数为原始数据中特征的数目。大部分方差都包含在最前面的几个新坐标轴中。因此,可以忽略余下的坐标轴,即对数据进行降维处理。


PCA算法就是找一些投影方向,使得数据在这些投影方向上的方差最大,而且这些投影方向是相互正交的。方差越大,才能最大化数据的差异性,保留更多的原始数据信息。原始数据协方差矩阵的特征值越大,对应的方差越大,在对应的特征向量上投影的信息量就越大。反之,如果特征值较小,则说明数据在这些特征向量上投影的信息量很小,可以将小特征值对应方向的数据删除,从而达到了降维。

概括一下:选择投影方差最大,去掉方差小(特征值小)→保留更多原始数据信息,得到最大差异性的主成分方向→降维


——
Ending~
参考:深入了解一下十大经典机器学习算法之一:PCA算法
matlab解法可移步:PCA (主成分分析)详解 (写给初学者)
今日搬运结束了,小李要满血复活准备迎接国庆了!
最后的最后呢,给大陈加个署名,感谢大陈提供!

相关文章

网友评论

      本文标题:PCA(主成分分析)初探

      本文链接:https://www.haomeiwen.com/subject/qygouctx.html