摘要: 迷惑很久,终于想通。其实是一种数据的处理方法,可以简化数据。矩阵乘特征向量就是在其方向的投影。这点类似于向量点积既是投影。通过求特征值和向量,把矩阵数据投影在一个正交的空间,而且投影的大小就是特征值。这样就直观体现了数据的基本特征。最大特征值并不是说数据在所有方向的投影的最大值,而仅限于正交空间的某... 阅读全文
posted @ 2014-05-09 11:52 依然老白兔 阅读(958) 评论(0) 推荐(0) 编辑
摘要: SVD分解(奇异值分解),本应是本科生就掌握的方法,然而却经常被忽视。实际上,SVD分解不但很直观,而且极其有用。SVD分解提供了一种方法将一个矩阵拆分成简单的,并且有意义的几块。它的几何解释可以看做将一个空间进行旋转,尺度拉伸,再旋转三步过程。首先来看一个对角矩阵,几何上, 我们将一个矩阵理解为对... 阅读全文
posted @ 2014-05-09 11:47 依然老白兔 阅读(598) 评论(0) 推荐(0) 编辑