随笔分类 -  Machine Learning and Optimization

摘要:1. 鲁棒性主成分分析(Robust PCA, RPCA) RPCA 将原始数据矩阵分解为一个低秩的成分和一个稀疏的成分,其中低秩的成分表示提取出的纯净数据,而稀疏的成分表示噪声。Cand`es从理论上证明了在一定条件下可以通过求解一个凸优化问题来精确地恢复低秩成分和稀疏噪声。 在 RPCA 中,模 阅读全文
posted @ 2020-06-22 22:41 Picassooo 阅读(456) 评论(0) 推荐(0) 编辑
摘要:软阈值迭代算法(ISTA)和快速软阈值迭代算法(FISTA) 低秩矩阵填充|奇异值阈值算法 低秩稀疏矩阵恢复|ADM(IALM)算法 阅读全文
posted @ 2020-06-22 21:05 Picassooo 阅读(539) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2020-06-22 17:34 Picassooo 阅读(952) 评论(3) 推荐(0) 编辑
摘要:本文摘自张贤达的《矩阵分析与应用》第四章第3节、王书宁等人译的《凸优化》的第三章第1节和第4节 阅读全文
posted @ 2020-06-14 10:48 Picassooo 阅读(4866) 评论(0) 推荐(0) 编辑
摘要:在上一篇博客中,我们介绍了次梯度,本篇博客,我们将用它来求解优化问题。 优化目标函数: min12||Axb||22+μ||x||1 已知A,b,设定一个μ值,此优化问题表示用数据矩阵A的列向量的线性组合去拟合目标向量b,并且解向量x 阅读全文
posted @ 2020-06-13 19:20 Picassooo 阅读(2013) 评论(0) 推荐(0) 编辑
摘要:本文摘自张贤达的《矩阵分析与应用》第四章第5节 示例: 上面左图的红线是函数y=x2在点x=0的梯度方向,也是唯一的次梯度方向。上面右图的三条红线都是函数y=|x|在点x=0的次梯度方向。 阅读全文
posted @ 2020-06-13 17:50 Picassooo 阅读(3037) 评论(0) 推荐(0) 编辑
摘要:百度百科上对Lipschitz连续的介绍挺不错的:Lipschitz连续 此外,张贤达的《矩阵分析与应用》第四章第4节中也有对Lipschitz连续的介绍: 阅读全文
posted @ 2020-06-11 21:49 Picassooo 阅读(1397) 评论(0) 推荐(0) 编辑
摘要:本文摘自张贤达的《矩阵分析与应用》第六章第2节 阅读全文
posted @ 2020-06-10 00:33 Picassooo 阅读(5230) 评论(0) 推荐(0) 编辑
摘要:本文摘自张贤达的《矩阵分析与应用》第六章第一节 阅读全文
posted @ 2020-06-10 00:26 Picassooo 阅读(302) 评论(0) 推荐(0) 编辑
摘要:本文摘自张贤达的《矩阵分析与应用》第六章 阅读全文
posted @ 2020-06-10 00:21 Picassooo 阅读(1238) 评论(0) 推荐(0) 编辑
摘要:本文摘自本文摘自史加荣等人发表在计算机应用研究杂志的《低秩矩阵恢复算法综述》 优化问题式(10)被称为鲁棒主成分分析(Robust Principal Component Analysis). 阅读全文
posted @ 2020-06-09 20:59 Picassooo 阅读(518) 评论(0) 推荐(0) 编辑
摘要:以下几个资料对范数和正则项的介绍比较好: 张贤达《矩阵分析与应用》第六章 Michael Nielsen的Neural Networks and Deep Learning,第三章第2节 机器学习中的范数规则化之(一)L0、L1与L2范数 机器学习中的范数规则化之(二)核范数与规则项参数选择 一文搞 阅读全文
posted @ 2020-06-08 16:20 Picassooo 阅读(384) 评论(0) 推荐(0) 编辑
摘要:在王书宁译的Boyd著的《凸优化》的第五章有很好的对拉格朗日函数、拉格朗日对偶函数、KKT条件的介绍。 阅读全文
posted @ 2020-06-06 10:08 Picassooo 阅读(295) 评论(0) 推荐(0) 编辑
摘要:本文摘自:常用的数学符号sup(上确界) 和 inf(下确界) sup与max的区别:sup可能不在集合中,max一定在集合中。 阅读全文
posted @ 2020-05-26 17:04 Picassooo 阅读(4578) 评论(1) 推荐(0) 编辑
摘要:子空间学习方法概述 子空间学习就是基于某一特定的准则,将数据从原始的高维特征空间变换到低维的、有意义的子空间的过程,其目的是为了抓住数据的内在结构,进而作进一步地分析。 无监督子空间学习方法 利用数据的局部关系来保持数据内在的流形结构,代表性的方法有: 局部线性嵌入 (Locally linear 阅读全文
posted @ 2020-05-15 09:20 Picassooo 阅读(1362) 评论(0) 推荐(0) 编辑
摘要:上篇博客中,我们介绍了并用代码实现了PCA算法,本篇博客我们应用PCA算法对鸢尾花数据集降维,并可视化。 鸢尾花数据集简介 代码实现 代码来自MOOC网的《Python机器学习应用》课程。 import matplotlib.pyplot as plt from sklearn.decomposit 阅读全文
posted @ 2020-04-14 20:58 Picassooo 阅读(3208) 评论(0) 推荐(0) 编辑
摘要:PCA算法 主成分分析(Principal Component Analysis,PCA)是最常用的一种降维方法,通常用于高维数据集的探索与可视化,还可以用作数据压缩和预处理等。PCA可以把具有相关性的高维变量合成为线性无关的低维变量,称为主成分。主成分能够尽可能保留原始数据的信息。PCA的计算涉及 阅读全文
posted @ 2020-04-14 20:23 Picassooo 阅读(5265) 评论(2) 推荐(0) 编辑
摘要:数据什么时候需要做中心化和标准化处理? 阅读全文
posted @ 2020-04-14 11:41 Picassooo 阅读(552) 评论(0) 推荐(0) 编辑
摘要:信息量,熵,KL散度,交叉熵,JS散度,Wasserstein距离,WGAN中对KL散度和JS散度的描述 阅读全文
posted @ 2020-03-31 11:28 Picassooo 阅读(240) 评论(0) 推荐(0) 编辑
摘要:一、pytorch中各损失函数的比较 Pytorch中Softmax、Log_Softmax、NLLLoss以及CrossEntropyLoss的关系与区别详解 Pytorch详解BCELoss和BCEWithLogitsLoss Focal Loss理解-菜鸟笔记 (coonote.com) 总结 阅读全文
posted @ 2020-03-30 17:50 Picassooo 阅读(3825) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示