机器学习-无监督机器学习-SVD奇异值分解-24

[POC]

1. 奇异值分解的本质

特征值分解只能够对于方阵提取重要特征,
Ax=λx λ为特征值 x为对应的特征向量
奇异值分解可以对于任意矩阵;

注意看中间的矩阵是一个对角矩阵,颜色越深越起作用-值越大 颜色越浅越接近0
U是左奇异矩阵,V是右奇异矩阵,均是正交矩阵,
中间的Σ是对角阵,除对角线元素外都是0,对角线元素是奇异值。
在大多数情况下,前10%甚至前1%的奇异值的和便占据了全部奇异值之和的99%以上了,因此当利用奇异值分解对数据进行压缩时,我们可以用前 个大的奇异值来近似描述矩阵。

其他性质:

  1. 特征向量张成的矩阵就是SVD中的v矩阵
  2. 协方差矩阵的特征值矩阵等于奇异值矩阵的平方

用处呢?

降维 n维降到k维:

数据压缩 m行降到k行:

posted @   jack-chen666  阅读(18)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· TypeScript + Deepseek 打造卜卦网站:技术与玄学的结合
· Manus的开源复刻OpenManus初探
· AI 智能体引爆开源社区「GitHub 热点速览」
· 从HTTP原因短语缺失研究HTTP/2和HTTP/3的设计差异
· 三行代码完成国际化适配,妙~啊~
点击右上角即可分享
微信分享提示