随笔分类 - PCA
摘要:Zhao L. and Akoglu L. Connecting graph convolution and graph pca. 2022. 概 从 graph-regularized PCA 角度提出一种 GCN 的 message passing layer. 符号说明
阅读全文
摘要:[TOC] "Hron K, Menafoglio A, Templ M, et al. Simplicial principal component analysis for density functions in Bayes spaces[J]. Computational Statistic
阅读全文
摘要:[TOC] "Alfaro C A, Aydin B, Valencia C E, et al. Dimension reduction in principal component analysis for trees[J]. Computational Statistics & Data Ana
阅读全文
摘要:@[TOC] "A pure L1 norm principal component analysis" 虽然没有完全弄清楚其中的数学内涵,但是觉得有趣,记录一下. 问题 众所周知,一般的PCA(论文中以表示)利用二范数构造损失函数并求解,但是有一个问题就是会对异常值非常敏感. 所
阅读全文
摘要:[TOC] "Takahashi T, Kurita T. Robust De noising by Kernel PCA[C]. international conference on artificial neural networks, 2002: 739 744." 引 这篇文章是基于对 "
阅读全文
摘要:[TOC] "Kernel PCA and De Noisingin Feature Spaces" 引 kernel PCA通过隐式地将样本由输入空间映射到高维空间,那么问题来了,如何回来呢,即已知,如何找到其原像呢?可是呢: 1. 这个问
阅读全文
摘要:[TOC] "Lu C, Zhang T, Du X, et al. A robust kernel PCA algorithm[C]. international conference on machine learning and cybernetics, 2004: 3084 3087." 引
阅读全文
摘要:[TOC] "Hoffmann H. Kernel PCA for novelty detection[J]. Pattern Recognition, 2007, 40(3): 863 874." 引 Novelty Detection: 给我的感觉有点像是奇异值检测,但是又不对,训练样本应该默认
阅读全文
摘要:[TOC] "Sanguinetti G, Lawrence N D. Missing data in kernel PCA[J]. european conference on machine learning, 2006: 751 758." 引 普通的kernel PCA是通过,其中$K
阅读全文
摘要:[TOC] "Tipping M E, Bishop C M. Probabilistic Principal Component Analysis[J]. Journal of The Royal Statistical Society Series B statistical Methodolo
阅读全文
摘要:[TOC] "Recovering Low Rank Matrices From Few Coefficients In Any Basis David Gross" 引 依旧是一个重构矩阵的问题,这篇论文的符号有些奇怪,注意一下。假设有一个矩阵$\rho \in \mathbb{R}^{n \tim
阅读全文
摘要:[TOC] "Scholkopf B, Smola A J, Muller K, et al. Nonlinear component analysis as a kernel eigenvalue problem[J]. Neural Computation, 1998, 10(5): 1299
阅读全文
摘要:[TOC] "Xu H, Caramanis C, Sanghavi S, et al. Robust PCA via Outlier Pursuit[C]. neural information processing systems, 2010: 2496 2504." 引 这篇文章同样是关于矩阵
阅读全文
摘要:[TOC] "Candes E J, Plan Y. Matrix Completion With Noise[J]. arXiv: Information Theory, 2010, 98(6): 925 936." 这篇文章,同一个人(团队?)写的,遗憾的是,没怎么看懂。怎么说呢,里面的关于对偶
阅读全文
摘要:[TOC] "Candes E J, Li X, Ma Y, et al. Robust principal component analysis[J]. Journal of the ACM, 2011, 58(3)." 引 这篇文章,讨论的是这样的一个问题: $$ M = L_0 + S_0 $
阅读全文
摘要:[toc] 背景 有很多Sparse PCA 算法运用了收缩算法,但是呢,往往只考虑如何解决,每一次迭代的稀疏化问题,而忽略了收缩算法的选择。 总括 Hotelling's deflation 公式 $A_t = A_{t 1} x_tx_t^{\mathrm{T}}A_{t 1}x_tx_t^{\
阅读全文
摘要:[toc] 背景 上篇总结了一些收缩法,这篇论文就是一个示例,虽然这篇论文是在那人之前写的。 Sparse eigenvectors(单个向量的稀疏化) 初始问题(low rank的思想?) $\ma
阅读全文
摘要:[toc] 背景 懒得说了,毕竟和上一篇作者都是一个人,有特殊的情况是,上次做的复杂度过大,这次降低了复杂度。 Notation Sparse PCA 在上篇论文里面,也提到了这个式子。上次是用它来进行一个robust的解释,这一次,是来试图解决这个问题。 $\Sigma_{ii} \quad i=
阅读全文
摘要:[toc] 概括 这篇论文,不像以往的那些论文,构造优化问题,然后再求解这个问题(一般都是凸化)。而是,直接选择某些特征,自然,不是瞎选的,论文给了一些理论支撑。但是,说实话,对于这个算法,我不敢苟同,我觉得好麻烦的。 Sparse PCA Formulation 非常普遍的问题 Optimalit
阅读全文