PCA最大方差

作者: 9933fdf22087 | 来源:发表于2019-04-06 10:10 被阅读31次

简述:

PCA是一种线性、非监督、全局的降维算法。在高维的特征数据空间中有可能会包含冗余与噪声,因此需要寻找数据内部的主成分来表征原始数据,从而达到降维与降低训练复杂的目的。

求解步骤:

1.对样本数据进行中心化处理;(使数据分布更具方向性,使得特征向量更具原数据表达性。)

2.求样本协方差矩阵;

3.对协方差矩阵进行特征值分解,将特征值从大到小排序;

4.取特征值前m大对应的特征向量W1,W2,...,Wm,将原n维数据通过这些特征向量映射到m维空间中;

通过以上步骤即可将方差较小的特征(噪声)抛弃。降维后的信息占比为:m维向量特征值的平方和比上n维向量特征值的平方和。\sqrt{\frac{\sum_{i=1}^m\lambda i ²}{\sum_{i=1}^n\lambda i ²} }

原理:

在信号处理领域,我们认为信号具有较大的方差,噪声有较小的方差。信号与噪声之比称之为信噪比,信噪比越大意味着数据质量越好。因此,PCA的目标即最大化数据投影方差,使得降维导致的信息损失最小化。由公式可得协方差对称矩阵,此时,协方差矩阵的第一特征值大小可表示数据降维后在第一主成分上的方差大小。所以,PCA降维的目的可以说是找到这个协方差矩阵的最大特征值和其所对应的特征向量。

结语:

由于PCA是线性降维,具有一定的局限性,所以对于效果不好的复杂数据需要一些非线性降维手段。

相关文章

  • 降维LDA与PCA

    1、LDA与PCA异同点 .PCA 希望投影后的数据方差尽可能的大(最大可分性),因为其假设方差越多,则所包含的信...

  • PCA最大方差

    简述: PCA是一种线性、非监督、全局的降维算法。在高维的特征数据空间中有可能会包含冗余与噪声,因此需要寻找数据内...

  • 机器学习读书笔记 — PCA 主成分分析

    1. pca的目标是最大化方差,方差指的是什么? 对于这个问题,方差指的是 2.不同的投影方式的方差有什么区别? ...

  • 超级简单PCA和KPCA

    。 当时,答案就是。 那么我们PCA要做的就是找到方差最大的点的投影。你肯定会想到,为什么方差要最大呢?因为当我们...

  • CV03-01:PCA应用

      PCA的算法应该是比较简单的,一个基于方差的投影降维方式,降维的维度采用方差最大的方式(方差大小反应样本的离散...

  • 超级简单LDA和GDA

    LDA和PCA最大的区别是,PCA找的是方差最大的方向,LDA找的是分类分的最开的方向。也就是说mean要分得最开...

  • 第五章 无监督学习:数据降维

    主成分分析PCA 1.寻找方差最大维度2.用PCA降维 线性判别分析LDA 1.双重标准考虑标签,最大化类间样本的...

  • PCA 机器学习实战Demo

    PCA算法框架 找到数据方差最大的投影方向;利用数据协方差矩阵的特征值向量矩阵作为基,定义了新空间。 编码实现采用...

  • LDA有标签数据降维

    之前无标签数据降维PCA,那么像下图带有标签数据,如果用PCA降维将会投影到v轴上,这个投影方差最大,数据将变成不...

  • 白化

    白化:相关性低,方差相同。 PCA:去均值,去相关性。 PCA白化:去均值,去相关性,方差相同为1。 ZCA白化:...

网友评论

    本文标题:PCA最大方差

    本文链接:https://www.haomeiwen.com/subject/rxtliqtx.html