[机器学习复习笔记] PCA 主成分分析(特征值分解、SVD分解)
PCA 主成分分析
1. 特征值分解
1.1 特征值分解的前提
-
矩阵是 方阵
-
矩阵是 可对角化的,即通过相似变化转化为对角矩阵。(相似变换 不会改变矩阵的特征值和特征向量 )
-
矩阵的特征向量 线性无关,保证了特征值分解的 唯一性。
1.2 特征值分解
给定一个矩阵
则称
特征向量具有某种不变性:矩阵
可以将
特征值
特征向量
由此:
由于矩阵
此时,可以看成矩阵
一般会将
1.3 计算方法
根据线性方程组理论,只有
计算出所有
2. SVD分解
2.1 奇异值分解
奇异值分解(Singular Value Decomposition) 并 不要求矩阵为方阵。
假设有
其中
2.2 计算方法
-
求解
构造
的方阵 ,进行 特征值分解:由此可以得到
对应的 个特征向量 ,从而得到特征向量矩阵 ,以及对应的特征值矩阵 。一般称其为 的 右奇异矩阵。 -
求解
显然,此时可以发现矩阵
的特征向量构成矩阵 , 明显是 等于 的,那么显然 的 特征值 与 的 奇异值 满足如下关系: -
求解
在上面两个部分的求解中,得到了由
构成的特征向量 和 奇异值 。从而得到特征向量矩阵
。称其为 的 左奇异矩阵。
3. PCA
3.1 特征值分解求解PCA
假设有样本数据集
-
去中心化,每一特征 减去各自的平均值
-
计算 协方差矩阵
,协方差矩阵可以满足特征值分解的前提条件(这里乘 或者 与否不影响最终结果) -
特征值分解求出 协方差矩阵
的 特征值 和 特征向量 -
特征值排序,选取 前
大的特征向量,组成特征向量矩阵 -
将数据转换到
个特征向量构建的空间中, ,得到压缩后的数据。注意
3.2 SVD分解求解PCA
假设有样本数据集
-
去中心化,每一特征 减去各自的平均值
-
使用 奇异值分解 (SVD) 求出 右奇异矩阵
和 奇异值对角矩阵 ,进而推出 左奇异矩阵 -
选取 前
大的奇异值,构成 -
将数据转换到
个奇异值构建的空间中, ,得到压缩后的数据。

参考文章
一切都是命运石之门的选择,本文章来源于博客园,作者:MarisaMagic,出处:https://www.cnblogs.com/MarisaMagic/p/17822658.html,未经允许严禁转载
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 全程不用写代码,我用AI程序员写了一个飞机大战
· DeepSeek 开源周回顾「GitHub 热点速览」
· 记一次.NET内存居高不下排查解决与启示
· 物流快递公司核心技术能力-地址解析分单基础技术分享
· .NET 10首个预览版发布:重大改进与新特性概览!