线性代数
使用到的数学符号:

Ax=b

Ax=b的行视图(凸优化中的超平面):

列视图(矩阵列的线性组合):

行视图和列视图是从不同的角度去看Ax=b,它们属于不同的空间。
线性相关与线性无关

Span、基和子空间(Subspace)

一个子空间可以由一组基表示,基的维数是固定的,但是基有无数组

四个基本的子空间
列空间:

两个向量的所有线性组合构成一个二维平面,是三维空间的子空间,且子空间必过原点,因为x1,x2可以为0
零空间:

零空间是所有Ax=b的解的所有线性组合构成的子空间
行空间:

左零空间:

四个基本子空间的关系:

两个垂直的子空间如 左零空间和列空间,它们的交点只有原点这一个点。
注意零空间有可能不存在,比如在满秩的情况下。
利用子空间重新看待线性方程组的解:
Ax=b方程的解:
- 只有唯一解,则 b ∈ C(A),N(A)的维数是 0
- 有无情多解,则 b ∈ C(A),N(A)的维数大于 0
- 无解,则 b ∉ C(A)
- 如果有解,解的形式 X = P + V P:特解 V:零空间的解
A * x = A * ( P + V ) = b + 0
特征分解(凸优化中的重要技术)
特征值(Eigenvalues)与特征向量(Eigenvectors)
Ax = λx的几何意义:

特征分解的性质:

Ax 相当于是对 x 向量进行了伸缩,也就是 Ax 与 x 共线,这个伸缩的比例就是 A 相对于 x 的特征值。
对称矩阵的特征分解


对于对称矩阵来说,非零特征值的个数就是矩阵的秩。
二次型(Quadratic Form)

负定矩阵:< 0
不定矩阵: 对有的向量 > 0 , 的有的向量 < 0
注意,正定矩阵、负定矩阵、不定矩阵等概念都是针对 对称矩阵 提出的。
那么,矩阵的正定,负定、不定有什么用呢?
二次型图像:


正定矩阵更容易进行函数的优化,找到最优解。
PCA

这里的Cx,可以理解为先对数据进行去均值,使得均值为0,正对角线可以理解为方差,负对角线可以理解为协方差。
问题: 假设变换矩阵为Y = QX,并先假设Q是方阵(先不降维),则有:

如何使得Cy是一个对角矩阵?
这里的Cy相当于协方差矩阵,这个矩阵如何转变称对角阵呢?
因为协方差矩阵是对称矩阵,可以进行对角化(实对称矩阵一定可以对角化):
如果有n阶矩阵A,其矩阵的元素都为实数,且矩阵A的转置等于其本身(aij=aji)(i,j为元素的脚标),则称A为实对称矩阵

将 Q 换为 U 的转置就可以啦。U 是正交阵。
PCA的核心就是: 一个对称矩阵可以被U对角化。
PCA降维举例

这里,我们把2行的X,降维称1行,这里的特征值我们取最大值2,因为方差越大蕴含的信息越多,也可以理解为这个数据越重要。
图像表示如下:

这里降维的操作相当于把离散的点映射到了一条直线上。
SVD(Singular Value Decomposition)万能矩阵分解
特征分解的广义化

这里的 σ 表示 奇异值
SVD和特征分解的关系

SVD和子空间的关系


也就是:

SVD 提供了计算四个子空间正交基的一种快速方法

低秩矩阵近似(降维)

奇异值分解比特征分解更加稳定,两者的本质是一样的。
网友评论