美文网首页
EOF经验正交分解(PCA)

EOF经验正交分解(PCA)

作者: 月月与 | 来源:发表于2020-10-29 22:34 被阅读0次

EOF经验正交分解(PCA)

1.PCA与EOF的区别和联系

  1. 经验正交函数分析方法(empirical orthogonal function,缩写EOF)也称特征向量分析(eigenvector analysis),或者主成分分析(principal component analysis),是一种分析矩阵数据中的结构特征,提取主要数据特征量的一种方法。可以知道这两者是同一种分析方法,只是称号不同。

  2. 两者叫法不同,主要是关注的侧重点不同。

    ​ 在EOF中,我们更加关注得到的协方差矩阵的特征向量,也叫做空间特征向量(空间模态)。第i个特征向量就叫做第i个模态:EOF_{i}。空间模态在一定程度上反映了要素场的空间分布特点,如果是针对气象数据的计算,那么就是重新拟合的要素场或者说是模态。PC(主成分)对应时间变化,也称为时间系数,反映相应空间模态随时间的权重变化。

    ​ 在PCA中,主成分分析以最少的信息丢失为前提,将众多的原有变量综合成较少几个综合指标,也叫主成分。

​ 从数学上可以证明,原变量协方差矩阵的特征根是主成分的方差,所以前m个较大特征根就代表前m个较大的主成分方差值;原变量协方差矩阵前m个较大的特征值\lambda_{i}(这样选取保证主成分的方差依次最大)所对应的特征向量就是主成分PC_{i}表达式的系数a_{i},为了加以限制,系数a_{i}对应的特征向量进行了单位化。<font color = blue>看完后面再看</font>

2.数学原理与算法

  • 选定要分析的数据,进行数据预处理,通常处理成距平的形式,得到一个数据矩阵X_{m\times n}。m代表单个数据有m个维度,n代表时间上采样n次。
    \begin{align}X &= (x_{ij}) \\ &= \begin{bmatrix} x_{11} & x_{12} & \dots & x_{1n} \\ x_{21} & x_{22} & \dots & x_{2n} \\ \vdots & \vdots & \dots & \vdots \\ x_{m1} & x_{m2} & \dots & x_{mn}\end{bmatrix},\\ {\color{Blue} } &(i = 1, 2, \dots ,m;j = 1, 2, \dots ,n).\end{align}
  • 计算X与其转置矩阵X^{T}的交叉积,得到方阵
    C_{m\times m} = \frac{1}{n}X \times X^{T}
    如果X是已经处理成距平的话,则C称为协方差矩阵;如果X已经标准化(即C中每行数据的平均值维0,标准差为1),则C称为相关系数阵。

  • 计算方阵C的特征值(\lambda_{1,\dots,m})和特征向量V_{m\times m},二者满足
    C_{m\times m} \times V_{m\times m} = V_{m\times m} \times \wedge_{m\times m}
    其中\wedgem\times m维对角阵,即
    \wedge = \begin{bmatrix} \lambda_{1}& 0& \dots& 0 \\ 0 & \lambda_{2} & \dots & 0 \\ \dots & \dots & \dots & \dots \\ 0 & 0 & \dots & \lambda_{m} \\\end{bmatrix}
    一般将特征值\lambda从大到小排列,反映各个主成分重要性。==因为数据X是真实的观测值,所以\lambda应该大于或者等于0==。每个非零特征值对应的一列特征向量就是EOF。\lambda{1}对应的特征向量值称为第一个EOF模态,也就是V的第一列即EOF_{1} = V(:, 1);第k个特征值对应的特征向量为V的第k列,也叫做第k个模态。

  • 计算主成分。将EOF投影到原始数据矩阵X上,就得到所有空间特征向量对应的时间系数(即主成分),即
    PC_{m\times n} = V^{T}_{m\times m} \times X_{m\times n}
    其中PC中每行数据就是对应每个特征向量的时间系数,第一行PC(1, :)就是第一个EOF的时间系数,其他类推。

上面是对数据矩阵X进行计算得到的EOF的主成分(PC),因此利用EOF和PC也可以完全恢复原来的数据矩阵X,即
X = EOF \times PC
有时可以用前面最突出的几个EOF模态就可以完全拟合出矩阵X的主要特征,此外,EOF和PC都具有正交性的特点,可以证明\frac{1}{n}PC\times PC^{T} = \wedge ;即不同的PC之间相关性为0。同时各个模态之间相关为0,是独立的。

3.常用的计算方法

  1. 直接使用eig方法

    [EOF, E] = eig(C)
    

    其中EOF为计算得到的空间特征向量,E为特征根。

  2. 直接对矩阵X进行奇异值分解
    X = U\sum V^{T}

相关文章

  • EOF经验正交分解(PCA)

    EOF经验正交分解(PCA) 1.PCA与EOF的区别和联系 经验正交函数分析方法(empirical ortho...

  • Python气象数据处理与绘图(3):以EOF为例画柱状图(折线

    更新完整版,修复了几个小问题,提供了测试数据下载最新版见此 EOF(经验正交分解)是气候研究中常用的研究变量时空变...

  • 常用降维方法之PCA 和 LDA

    PCA PCA本质上是将方差最大的方向作为主要特征,并且在各个正交方向上将数据“离相关”,也就是让它们在不同正交方...

  • 第30课 奇异值分解

    奇异值分解:简称,是矩阵最终和最好的分解,分解的因子是正交矩阵,对角矩阵,正交矩阵,任意矩阵都有这种奇异值分解 对...

  • 每日算法-PCA

    PCA简述 PCA是一种较为常用的降维技术,PCA的思想是将n维特征映射到k维上,这维是全新的正交特征。这维特征称...

  • IDEA

    IDEA 所有的设计都是为了隔离变化与不变隔离变化的方式就是进行正交分解软件里面的所谓加一层,本质就是正交分解的产...

  • PCA与SVD分解的关系

    PCA: 目标是使 因为可对 E的每列是相应的非线性相关且相互正交的特征向量,为正交阵。我们令 因为这样P就成为了...

  • 单细胞数据分析之PCA再认识与ScaleData函数

    我们首先再认识一下PCA 数据做PCA分析的前提是1、主成分分析认为主元之间彼此正交,样本呈高斯分布;2、主成分分...

  • 线性代数网址备忘

    如何理解矩阵特征值和特征向量 特征值分解、奇异值分解和PCA概念

  • PCA分析中的PC1指代什么

    了解PCA降维原理的同志们,一定都知道PCA的核心是在数据的高维空间里面,寻找出合适的一组向量(向量之间相互正交)...

网友评论

      本文标题:EOF经验正交分解(PCA)

      本文链接:https://www.haomeiwen.com/subject/pxzlvktx.html