美文网首页
2019-06-12-什么是特征分解

2019-06-12-什么是特征分解

作者: LoveAnny | 来源:发表于2019-06-12 17:15 被阅读0次

特征分解

概念

特征分解是矩阵的分解的一种,目的是将一个矩阵拆分成几个矩阵乘积的形式,就好像是我们对标量(scalar)做因式分解一样。

目的

之所以要做特征分解,一方面是要从矩阵的分解中找出隐含的规律,另一方面就是对矩阵进行转换。转成容易处理的形式。

矩阵初等变换

学过线型代数的人都知道,矩阵的初等变换其实就是对单位矩阵进行伸缩变换,行变换就是对矩阵进行单位矩阵进行左乘,相应列变换就是对矩阵进行右乘。

特征向量和特征值

如果一个矩阵A 满足如公式:
Av = \lambda v ;v\ne0,则成v 为特征向量,\lambda 就是特征值
从这个公式我们可以看出:

  1. 矩阵A 和 向量v 共线,
  2. 向量v 经过N次初定初定变换(左乘A),可以变化成\lambda v
  3. 根据1,2 可以知道,矩阵A 把向量v 进行了拉长或者缩短,而这个拉长或者缩短的比例就是\lambda
  4. 矩阵A并没有改变向量v的方向,\lambda为负数时方向相反

矩阵分解

一个矩阵可以有多个特征值,如果是N维矩阵,则一定有n个特征值(包括重根)
Av_1 = \lambda_1 v_1
Av_2 = \lambda_2 v_2
Av_3 = \lambda_3 v_3
Av_4 = \lambda_4 v_4
将上面公式合并写成矩阵形式:
AV = V\Lambda 移项后得到
A = V\Lambda V^{-1}
到此我们将矩阵A分解成三部分乘积形式,其中V表示以所有特征向量为列向量组成的矩阵,\Lambda表示三角矩阵,对角线值为特征值,V^{-1}表示V的逆矩阵。

限制

  1. 矩阵A必须是方阵,因为只有方阵才有逆矩阵
  2. 并不是所有方阵,都有逆矩阵

由以上两点可以看出特征分解虽好,但是并不通用

应用

因为特征值表示矩阵对向量的拉伸程度,所以可以直观的认为当特征值大时表示该向量方向占比比较大(主要),当特征小时该特征向量占比较小(次要)。所以特征分解可以对矩阵进行降维,去掉特征值较小的特征向量。具体做法如下:

  1. 求出矩阵A的所有特征值和特征向量
  2. 对特征值从大到小排列,并相应改变特征向量次序
  3. 截取给定阈值的特征值,舍弃小于阈值的特征向量

相关文章

  • 2019-06-12-什么是特征分解

    特征分解 概念 特征分解是矩阵的分解的一种,目的是将一个矩阵拆分成几个矩阵乘积的形式,就好像是我们对标量(scal...

  • 学习笔记DL006:特征分解,奇异值分解

    特征分解。 整数分解质因素。 特征分解(eigendecomposition),使用最广,矩阵分解一组特征向量、特...

  • SVD分解与Word Embedding 大全解

    1.SVD分解 1.1先谈什么是特征值分解? (1)特征值如果说一个向量v是方阵A的特征向量,将一定可以表示成下面...

  • 特征值和奇异值

    特征值和奇异值经常弄混~ 首先理解特征值分解和奇异值分解:矩阵的特征值分解考虑的是一个到自身的映射矩阵,奇异值分解...

  • 学习_矩阵对角化和SVD

    1.矩阵对角化矩阵对角化和SVD可以达到特征值分解的目的,特征值分解是将矩阵分解为特征向量和特征值相乘的形式。对角...

  • Tensorflow快餐教程(6) - 矩阵分解

    摘要:特征分解,奇异值分解,Moore-Penrose广义逆 矩阵分解 特征向量和特征值 我们在《线性代数》课学过...

  • 特征值、特征向量和奇异值

    特征值和特征向量 1 特征值分解与特征向量 特征值分解可以得到特征值(eigenvalues)与特征向量(eige...

  • 线性代数网址备忘

    如何理解矩阵特征值和特征向量 特征值分解、奇异值分解和PCA概念

  • 无监督第二节:SVD及和PCA之间的关系

    1. 特征值分解 & 奇异值分解 上面说到通过对协方差矩阵进行特征值分解(Eigen Values Decompo...

  • 特征值分解和特征向量

    特征值分解可以得到特征值与特征向量,特征值表示的是这个特征到底有多重要,而特征向量表示这个特征是什么。如果说一个向...

网友评论

      本文标题:2019-06-12-什么是特征分解

      本文链接:https://www.haomeiwen.com/subject/batrfctx.html