美文网首页
特征选择-PCA

特征选择-PCA

作者: Spinggang | 来源:发表于2019-12-09 15:32 被阅读0次

1. PCA 定义

PCA(主成成分分析)是将输入特征转换为其主成分的系统化方式。这些主成分作为在分类或回归任务中新特征。

主成分的定义是数据中会使方差最大化的方向,它是在对特征数据执行投影或压缩时,最大化的降低信息丢失。

可对主成分划分等级。主成分等级越高,产生的方差越大。产生方差最大的主成分即为第一主成分。产生方差第二大的成分即为第二主成分。依次类推。

主成分在某种意义上是垂直的。因此从数学的角度出发,第一主成分不会与第二个主成分重叠。同样第二于第三也不会重叠。在某种意义上可作为单独的特征对待。

主成分数量上有限的。该最大值等于输入的特征数量。通常情况下只用到前面几个主成分。

2. 何时使用PCA

在什么情况下会用到PCA?

第一种情况是:想要访问隐藏的特征。简单说就是想知道第一个主成分的大小。

第二种情况是:降维。PCA 可以执行很多工作,能在降维上提供帮助。如下:

1. 可视化高纬数据。当需要画散点图时,通常情况下只有 x 和 y 两个轴,即两个维度。但数据集中通常不止两个特征,能做的就是投射到两个主成分,然后画出散点图。

2. 减少噪音。数据集中几乎都存在噪音。在PCA中捕获的第一、第二主成分为数据中真正的模式,而较小的主成分只表示噪音。实际中会抛弃较小的主成分。

3. 预处理。在使用另一个算法之前,对数据进行预处理。如果数据有很高的维度,而且算法也比较复杂。这导致运行比较慢,因此可食用PCA维度。

3. sklearn 中的PCA

sklearn 中PCA 的例子http://lijiancheng0614.github.io/scikit-learn/modules/decomposition.html#decompositions

sklean 中 PCA 的APIhttp://lijiancheng0614.github.io/scikit-learn/modules/generated/sklearn.decomposition.PCA.html#sklearn.decomposition.PCA

4. PCA + SVM 实现人脸识别

为什么PCA在人脸识别中会有不错应用呢?答案可能有几个:

1. 人脸照片通常有很高的维度(很多像素)

2. 人脸具有一下一般性形态,这些形态可以食用较小维数的方式捕捉。比如人一般有两只眼睛,眼睛都基本位于脸部顶部的位置。

可在此下载代码,使用 jupyter 打开查看。项目来自udacity 中的机器学习

相关文章

  • 特征选择-PCA

    1. PCA 定义 PCA(主成成分分析)是将输入特征转换为其主成分的系统化方式。这些主成分作为在分类或回归任务中...

  • PCA降维

    当数据特征较多时,基本有两种方法:1 PCA降维2 Feature Selection(特征选择) PCA降维 <...

  • StatQuest掠影:PCA in R

    什么是PCA pca是一种,降维技术。主成分分析(pca)的目的就是要从这些现有的特征中重建新的特征,新的特征剔除...

  • 异常检测

    1 PCA 标准化-协方差矩阵-特征值/特征向量-选择特征向量 计算投影值,投影值越大,越异常 2 DBSACN ...

  • 每日算法-PCA

    PCA简述 PCA是一种较为常用的降维技术,PCA的思想是将n维特征映射到k维上,这维是全新的正交特征。这维特征称...

  • 特征脸算法

    前言 特征脸算法使经典的人脸识别算法,特征脸算法使用了PCA方法。本文介绍了PCA算法和其应用特征脸算法 算法流程...

  • Bagging与Boosting

    加载数据 特征选择 为了方便后面可视化,我们只选取2个特征,通过自变量与因变量y相关系数来选择 还可以通过PCA降...

  • PCA算法推导

    一、PCA降维 1.PCA简介 PCA(主成分分析)是一种数据降维的方法,即用较少特征地数据表达较多特征地数据(数...

  • t-SNE降维原理

    前言 PCA是一种线性降维算法,不能解释特征之间的复杂多项式关系。如果特征与特征之间的关系是非线性的话,用PCA可...

  • 线性代数网址备忘

    如何理解矩阵特征值和特征向量 特征值分解、奇异值分解和PCA概念

网友评论

      本文标题:特征选择-PCA

      本文链接:https://www.haomeiwen.com/subject/jhobgctx.html