前言
大二学了线代,讲了特征值和特征向量,但是老师的暴力朗读ppt真是让我觉得够了,还有关于特征值和特征向量就是单纯的公式求解,为什么是这样的一概不讲,有什么用,有什么意义一概不讲,现在还是一脸懵逼,所以看了麻省理工的线代课的这一节还是有点收获的。
特征向量
向量有千千万为什么只关注这几个向量并把它们称为矩阵A的特征向量呢,我们可以把矩阵A看作一种变换的方式,那么对于一个向量x来说Ax就是将x进行了拉伸或者旋转等,而特征向量就是一类特殊的向量,它们对于A来说投影后与原来的向量平行,即:
式中,λ就是特征值,它实际是投影后向量长度的倍数,反映了大小关系。如果算上复数和多重特征值,一个n*n的矩阵A有n个特征值和n个对应的特征向量,求特征值的过程实际上就是找到这个矩阵A可以对哪些向量x只进行拉伸,不进行旋转等改变方向的操作。
那么怎么求得特征值和特征向量呢?
为啥用|A-λE|=0求?
老师上课只是说用|A-λE|=0求就好,但是为什么呢?我们看到上面的式子Ax=λx等号右面的移到左边就有
因为A是矩阵所以x即特征向量不为1(多重特征向量算多个),那么上面的方程中(A-λE)一定奇异,所以有:
这就是老师上课讲的了。。。。接下来求出λ之后带入求x就好
特征值和特征向量用途和意义
这样做的意义在于,看清一个矩阵在那些方面能产生最大的效果(power),并根据所产生的每个特征向量(一般研究特征值最大的那几个)进行分类讨论与研究。
https://jingyan.baidu.com/article/3065b3b68c6bb6becff8a488.html
讲的是特征值分解以及作用,简明扼要来说对于高维数据的特征值反映了在某几个方向上该矩阵A对于这几个方向的改变最大,也就是该矩阵的主要特征,所以分析时对这几个主要分析,这就是PCA(主成分分析法)的一个基础。
网友评论