关于特征值和特征向量

关于特征值和特征向量,专业的说法是

1:从线性空间的角度看,在一个定义了内积的线性空间里,对一个N阶对称
方阵进行特征分解,就是产生了该空间的N个标准正交基,然后把矩阵投影到这N个基上。N个特征向量就是N个标准正交基,而特征值的模则代表矩阵在每个基上的投影长度。特征值越大,说明矩阵在对应的特征向量上的方差越大,功率越大,信息量越多。 

2:换一种说法:

特征向量反映了线性变换的方向,在这几个方向上的线性变换只导致向量的伸缩,特征值反映线性变换在这几个方向上导致伸缩的大小。

3:形象的说法:

在人群中找一个人,给定这几个向量,身高,肤色,体重,再给定几个特征值身高:180,肤色:黄,体重:70KG, 我们马上就能找到这个人,

于是我们不需要给定人所有的信息,只要这么几个特征就能找到,所以可以用来降维。

在实际的特征向量里会更复杂一些,“身高”可能是有若干个因子组成的,不是一维的。

4:几何的说法:

特征值不仅仅是数学上的一个定义或是工具,特征值是有具体含义的,是完全看得见摸得着的。

比如说一个三维矩阵,理解成线性变换,作用在一个球体上:

三个特征值决定了 对球体在三个维度上的拉伸/压缩,把球体塑造成一个橄榄球;

剩下的部分决定了这个橄榄球在三维空间里面怎么旋转。

posted @ 2016-10-21 16:09  谷子弟  阅读(582)  评论(0编辑  收藏  举报