推导:PCA主成分分析&LDA线性判别分析
推导:PCA主成分分析&LDA线性判别分析
希望自己学过了就留个痕。
PCA和LDA都是在通过降维进行特征提取,PCA倾向于数据重构(就如名字一样 主成分分析),LDA倾向于数据分类(更好的将不同类别分开)。
考虑它具体在做什么事情,其实在每个样本进行中心化处理后(减去均值),一个样本就变成了一个距离向量来描述与中心的距离(PCA的中心是所有样本的中心,LDA的中心是类内的或总的),用协方差矩阵来描述样本之间的聚or散的程度。
现在求一个投影向量
所以最后的思路就是用

1 PCA主成分分析
PCA的目标是找到一组新的坐标轴,以此方式将原始数据空间进行旋转。新的坐标轴(或者叫做主成分)的选择是基于数据方差最大化的准则。这意味着第一主成分的选择是沿着数据具有最大方差的方向,第二主成分选择沿着与第一主成分正交并具有第二大方差的方向,依此类推。
现在我们有一个n维的数据集,并且我们已经计算了其均值并进行了中心化处理(即减去均值,使新的数据集的均值为0)。
假设我们想要找到第一主成分。我们可以定义一个单位向量u(u的转置乘以u为1),使得所有数据点到u的投影的方差最大。方差可以定义为:
这是所有点
我们需要找到最大化L的u,可以通过对u和λ分别求偏导,然后令它们等于零来解决。
这个优化问题要求我们找到一个向量u,使得在
这个问题的解决方案是
首先,我们计算 L 关于u和λ的偏导数,并将这些偏导数设为0。对于u,我们有:
这个公式可以整理为:
此时 L 关于u的偏导就为0了,考虑我们要最大化的是
2 LDA线性判别分析
对于线性判别分析(Linear Discriminant Analysis, LDA),我们可以定义类内散度(within-class scatter)和类间散度(between-class scatter)的公式如下:
假设我们有C个类别,每个类别c有
-
类内散度(Within-class scatter):
类内散度矩阵
可以通过下式计算: -
类间散度(Between-class scatter):
类间散度矩阵
可以通过下式计算:
在进行LDA时,我们的目标是找到一个投影向量w,使得类间散度矩阵的迹最大化,同时类内散度矩阵的迹最小化。
因为投影过后的向量是一维的,所以trace可以去掉,等价于
我们注意到上述优化问题有一个隐含的约束,即 w 的长度(或说范数)应为1。这是因为,如果不加这个约束,我们可以通过无限增大 w 的长度来无限增大J(w)的值,这显然是无意义的。因此,我们的优化问题实际上是带约束的,形式如下:
化成无约束问题:
然后对w和λ分别求偏导并设为0,我们可以得到如下的等式:
因为
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· winform 绘制太阳,地球,月球 运作规律
· AI与.NET技术实操系列(五):向量存储与相似性搜索在 .NET 中的实现
· 超详细:普通电脑也行Windows部署deepseek R1训练数据并当服务器共享给他人
· 【硬核科普】Trae如何「偷看」你的代码?零基础破解AI编程运行原理
· 上周热点回顾(3.3-3.9)