美文网首页
学习_矩阵对角化和SVD

学习_矩阵对角化和SVD

作者: 不ai吃糖 | 来源:发表于2020-01-08 15:55 被阅读0次

    1.矩阵对角化
    矩阵对角化和SVD可以达到特征值分解的目的,特征值分解是将矩阵分解为特征向量和特征值相乘的形式。
    对角化如下,对角化对矩阵的要求较高,需要B为对称、正定矩阵


    P矩阵要求单位正交,即

    对角化可以达到将矩阵分解的目的,A对角线上的值为B矩阵对应的特征值,P可以理解为对应的特征矩阵,推导如下:

    λ按照大小顺序进行排列,一般前几个比较大的λ就能很好的逼近B的真实数值,因此达到矩阵分解的目的,矩阵B原始大小为nxn,如上分解之后,最小可以压缩到只保留第一项,其中u1位列向量,因此大小变为n+1。

    特征值和特征向量的作用效果,A可以看做是在u_i的反向上延展λ_i 倍。

    2.SVD(奇异值分解)

    SVD是对角化的扩展。一般矩阵A,大小为mxn,不满足上述的对角化分解的要求,需要做个中间的转换,来满足那两个要求:正定、对称,如下


    因此可以对进行对角化,有之前的对角化过程可以得出


    一个结论,有矩阵B(mxn)和矩阵C(nxm),则BC和CB两个矩阵的大小不同,但是他们的特征值不为零的个数是一样的,在花书中用矩阵的迹来证明该结论。根据此结论,上述对A矩阵的分解,D1和D2中对角上的不为零的特征值的个数是一样的。可得到如下推导得出A的对角分解,特征值λ即为D1或者D2中对角线元素开根号。

    SVD可以应用在图像压缩,一张大小为mxn的图像,根据上述对A的分解结果,只取第一个λ的部分,则被压缩后的存储大小为m+n+1。当取前k个λ时,存储大小为k*(m+n+1),相对于原图的误差为

    还可以用在减小矩阵的计算复杂度

    相关文章

      网友评论

          本文标题:学习_矩阵对角化和SVD

          本文链接:https://www.haomeiwen.com/subject/qcjsactx.html