美文网首页
Day 686:机器学习笔记(15)

Day 686:机器学习笔记(15)

作者: kafkaliu | 来源:发表于2018-12-13 22:49 被阅读7次

    PCA

    在现实中,我们能获取到的数据是相对较少的,或者说获取大量数据的成本比较高。

    这些数据如果放到多维的特征空间,就会变得非常稀疏。于是研究人员就琢磨出在不丢失重要信息的情况下,降低维度空间的方法。

    向量空间都有对应的超平面,超平面是向量空间的降维。避免主要特征的丧失。一是投影到超平面上的点尽可能不重叠。二是尽可能让超平面靠近样本点,这样投影后丢失的信息就比较少(缺少了点到超平面之间的距离信息)。

    PCA就是这样的算法,它的目标就是让样本点到超平面上的投影尽可能分开,并且到超平面的距离尽可能近。

    相关文章

      网友评论

          本文标题:Day 686:机器学习笔记(15)

          本文链接:https://www.haomeiwen.com/subject/hzabhqtx.html