简单的理解特征值和特征向量的特征意义

1、矩阵基础

矩阵是一个表示二维空间的数组,矩阵可以看做是一个变换。在线性代数中,矩阵可以把一个向量变换到另一个位置,或者说从一个坐标系变换到另一个坐标系。矩阵的“基”,实际就是变换时所用的坐标系。而所谓的相似矩阵,就是同样的变换,只不过使用了不同的坐标系。线性代数中的相似矩阵实际上就是要使这些相似的矩阵有一个好看的外表,而不改变其变换的功用。

2、矩阵的特征方程式 

       AX = Xλ

方程左边就是把向量x变到另一个位置;右边是把向量x作了一个拉伸;

任意给定一个矩阵A,并不是对所有的向量x它都能拉长(缩短)。凡是能被矩阵A拉长(缩短)的向量就称为矩阵A的特征向量(Eigenvector);拉长(缩短)的量就是这个特征向量对应的特征值(Eigenvalue)

对于实对称矩阵来说,不同特征值对应的特征向量必定正交;我们也可以说,一个变换矩阵的所有特征向量组成了这个变换矩阵的一组基;

3、在层次分析法中(AHP) 最大特征根法确定权重

特征根在一定程度上反映了 成对比较矩阵(正互反阵)的总体特征。

所有的特征向量的集合构成了矩阵的基,特征向量是基,特征值反应矩阵在各个方向上的值,特征值的模则代表矩阵在每个基上的投影长度。

不同的特征向量就是矩阵不同的特点,特征值就是这些特点的强弱。

 

 

还请多多赐教。QQ:1954645115

 

posted @ 2017-03-15 00:51  苦瓜的甜  阅读(11416)  评论(0编辑  收藏  举报