-
PCA (Principal Component Methods): 主成分分析。
无监督学习,找到最优重构子空间,使主成分能刻画样本绝大部分的方差。
参考:PCA原理解读和绘制方法 -
CCA (Canonical Correlation Analysis): 典型相关分析。
无监督学习,对两组变量降维,找到一个最优相关子空间进行相关性分析。
其基本思想和主成分分析非常相似。首先,在每组变量中寻找出变量的线性组合,使得两组的线性组合之间具有最大的相关系数;然后选取和已经挑选出的这对线性组合不相关的另一对线性组合,并使其相关系数最大,如此下去,直到两组变量的相关性被提取完毕为止。被选出的线性组合配对称为典型变量,它们的相关系数称为典型相关系数。 -
LDA (Linear Discriminant Analysis): 线性判别分析。
有监督学习,学习一个可分性最好的投影方向。相当于是白化(whitening) + PCA,得到的是假设条件下的最优分类子空间(假设每个类都是单模态高斯分布、每个类协方差矩阵相同)。
-
ICA (Independent Component Analysis):独立成分分析。
无监督学习,各个分量之间相互独立,利用数据的高阶统计信息而不是二阶信息得到用于信号分离的独立子空间。 -
DF (Diffusion maps):扩散映射。是一种非线性降维方法。
ICA和DF的原理及与PCA的区别参考:Trajectory inference analysis of scRNA-seq data
网友评论