上一页 1 ··· 56 57 58 59 60 61 62 63 64 ··· 73 下一页
摘要: 本文摘自张贤达的《矩阵分析与应用》第六章第2节 阅读全文
posted @ 2020-06-10 00:33 Picassooo 阅读(5374) 评论(0) 推荐(0)
摘要: 本文摘自张贤达的《矩阵分析与应用》第六章第一节 阅读全文
posted @ 2020-06-10 00:26 Picassooo 阅读(318) 评论(0) 推荐(0)
摘要: 本文摘自张贤达的《矩阵分析与应用》第六章 阅读全文
posted @ 2020-06-10 00:21 Picassooo 阅读(1264) 评论(0) 推荐(0)
摘要: 本文摘自本文摘自史加荣等人发表在计算机应用研究杂志的《低秩矩阵恢复算法综述》 优化问题式(10)被称为鲁棒主成分分析(Robust Principal Component Analysis). 阅读全文
posted @ 2020-06-09 20:59 Picassooo 阅读(545) 评论(0) 推荐(0)
摘要: 假设$A$是$m*n$矩阵,可通过证明$Ax=0$和$A^TAx=0$这两个n元方程有相同解来证明$rank(A^TA)=rank(A)$。 (1) $Ax=0 \rightarrow A^TAx=0$,即方程$Ax=0$的解也是$A^TAx=0$的解; (2) $A^TAx=0 \rightarr 阅读全文
posted @ 2020-06-09 19:35 Picassooo 阅读(1685) 评论(0) 推荐(0)
摘要: 本文摘自史加荣等人发表在计算机应用研究杂志的《低秩矩阵恢复算法综述》 阅读全文
posted @ 2020-06-08 20:34 Picassooo 阅读(7401) 评论(0) 推荐(1)
摘要: 以下几个资料对范数和正则项的介绍比较好: 张贤达《矩阵分析与应用》第六章 Michael Nielsen的Neural Networks and Deep Learning,第三章第2节 机器学习中的范数规则化之(一)L0、L1与L2范数 机器学习中的范数规则化之(二)核范数与规则项参数选择 一文搞 阅读全文
posted @ 2020-06-08 16:20 Picassooo 阅读(394) 评论(0) 推荐(0)
摘要: 在张贤达的《矩阵分析与应用》第四章第7节和Boyd等人的Distributed Optimization and Statistical Learning via the Alternating Direction Method of Multipliers的第2、3章,有对对偶上升法、增光拉格朗日 阅读全文
posted @ 2020-06-06 10:13 Picassooo 阅读(792) 评论(0) 推荐(0)
摘要: 在王书宁译的Boyd著的《凸优化》的第五章有很好的对拉格朗日函数、拉格朗日对偶函数、KKT条件的介绍。 阅读全文
posted @ 2020-06-06 10:08 Picassooo 阅读(311) 评论(0) 推荐(0)
摘要: 本文摘自《矩阵分析与应用》张贤达 阅读全文
posted @ 2020-06-05 09:24 Picassooo 阅读(4161) 评论(0) 推荐(0)
上一页 1 ··· 56 57 58 59 60 61 62 63 64 ··· 73 下一页