Sparse Principal Component Analysis

背景:

sparse PCA 较 PCA来说更具可解释性,泛化性。

部分符号

XRn×p
假设样本已经中心化(每一个行为一个样本)
X=[X1,X2,,Xp]
Xj=(x1j,x2j,,xnj)
X=UDVT
Z=UD为主成分(PCs)

创新点

1.将PCA问题转化为一个回归问题,利用最小角回归,可以高效求解Lasso问题。
2.二重迭代求解,sparse PCA问题。

文章梗概

The LASSO AND THE ELASTIC NET

普通的Lasso

在这里插入图片描述
Y=(y1,y2,,yn)T
这个方法的问题在于,当pn的时候,β^最多有n个非零项(这是为什么呢?)

The elastic net

在这里插入图片描述

将PCA改造为回归问题

定理一 考虑单个向量(需要先进行SVD)

在这里插入图片描述

定理二 单个向量(无需进行SVD版本)

在这里插入图片描述

定理三 多个向量(无需进行SVD, 非LASSO,非elastic net)

在这里插入图片描述

目标函数(最终版)

在这里插入图片描述

俩步求解

在这里插入图片描述

定理四 A given B的理论支撑(存疑)

在这里插入图片描述

算法一

在这里插入图片描述

方差计算

因为稀疏化后的向量,既不具有空间上(往往)的正交性,也不具有概率上(xTCy=0)的正交性。这里,Zou 考虑的是概率上的正交性,将得到的向量正交化,把余量相加得最后的方差。
在这里插入图片描述

复杂度

n>pnp2+mO(p3) #m是迭代次数

pn 算法改进

简单来说,就是把step2改进下,原来需要求解一个elastic net问题,现在直接进行截断,自然会减轻不少负担。
在这里插入图片描述

数值实验(pitprops)

在这里插入图片描述

在这里插入图片描述

posted @   馒头and花卷  阅读(857)  评论(0编辑  收藏  举报
编辑推荐:
· 开发者必知的日志记录最佳实践
· SQL Server 2025 AI相关能力初探
· Linux系列:如何用 C#调用 C方法造成内存泄露
· AI与.NET技术实操系列(二):开始使用ML.NET
· 记一次.NET内存居高不下排查解决与启示
阅读排行:
· Manus重磅发布:全球首款通用AI代理技术深度解析与实战指南
· 被坑几百块钱后,我竟然真的恢复了删除的微信聊天记录!
· 没有Manus邀请码?试试免邀请码的MGX或者开源的OpenManus吧
· 园子的第一款AI主题卫衣上架——"HELLO! HOW CAN I ASSIST YOU TODAY
· 【自荐】一款简洁、开源的在线白板工具 Drawnix
点击右上角即可分享
微信分享提示