随笔分类 - 数值解
1
摘要:目录概符号说明思路 Li H., Jadbabaie A. and Rakhlin A. Convergence of adam under relaxed assumptions. NeurIPS, 2023. 概 本文探讨了 Adam 再较弱的假设下的收敛性. 作者的证明思路非常有趣, 虽然条件
阅读全文
摘要:Kingma D P, Ba J. Adam: A Method for Stochastic Optimization[J]. arXiv: Learning, 2014. @article{kingma2014adam:, title=, author={Kingma, Diederik P a
阅读全文
摘要:@ Das S, Suganthan P N. Differential Evolution: A Survey of the State-of-the-Art[J]. IEEE Transactions on Evolutionary Computation, 2011, 15(1): 4-31.
阅读全文
摘要:[TOC] "Malitsky Y, Mishchenko K. Adaptive gradient descent without descent[J]. arXiv: Optimization and Control, 2019." 概 本文提出了一种自适应步长的梯度下降方法(以及多个变种方法)
阅读全文
摘要:[TOC] "Proximal Algorithms" 需要注意的一点是,本节所介绍的例子可以通过第二节的性质进行延展. 一般方法 一般情况下proximal需要解决下面的问题: 其中, . 我们可以
阅读全文
摘要:[TOC] "Proximal Algorithms" 这一节介绍了一些利用proximal的算法. Proximal minimization 这个相当的简单, 之前也提过,就是一个依赖不动点的迭代方法: 有些时候不是固定的: $$ x^{k+1} := \mathbf{prox
阅读全文
摘要:[TOC] "Proximal Algorithms" 这一节,作者总结了一些关于proximal的一些直观解释 Moreau Yosida regularization 内部卷积(infimal convolution): $$ (f \: \Box \: g)(v)=\inf_x (f(x)+g
阅读全文
摘要:[TOC] "Proximal Algorithms" 定义 令为闭的凸函数,即其上镜图: $$ \mathbf{epi} f = \{ (x, t) \in \mathrm{R}^
阅读全文
摘要:[TOC] "" 引 这篇论文比较短,先看了这篇,本来应该先把ADAGRAD看了的。普通的基于梯度下降的方法,普遍依赖于步长,起始点的选择,所以,受ADAGRAD的启发,作者提出了一种ADADELTA的方法。 $$ \Delta x_t = \frac{\mathrm{RMS}[\Delta x]_
阅读全文
摘要:[TOC] "Efron B, Hastie T, Johnstone I M, et al. Least angle regression[J]. Annals of Statistics, 2004, 32(2): 407 499." 引 在回归分析中,我们常常需要选取部分特征,而不是全都要,所
阅读全文
摘要:[TOC] "《Convex Optimization》" 数值解这么走下去,却不好好弄弄关于线性方程组的求解,总感觉很别扭,既然《凸优化》也很详细地介绍了这一块东西,我就先跳过别的把这一块整一整吧。 容易求解的线性方程组 先讨论很容易求解的情况,即为满秩的方阵,方程有唯一的解
阅读全文
摘要:[TOC] "《Subgradients》" "Subderivate wiki" "Subgradient method wiki" "《Subgradient method》" "Subgradient Prof.S.Boyd,EE364b,StanfordUniversity" "《Chara
阅读全文
摘要:[TOC] "《Subgradients》" "Subderivate wiki" "Subgradient method wiki" "《Subgradient method》" "Subgradient Prof.S.Boyd,EE364b,StanfordUniversity" "《Chara
阅读全文
摘要:[TOC] "《Convex Optimization》" 之前,讲的下降方法以及Newton方法都是在无约束条件的前提下的。这里讨论的是在等式约束(线性方程)的前提下讨论的。我们研究的是下面的凸优化问题: $$ \begin{array}{ll} minimize & f(x) \\ s.t. &
阅读全文
摘要:[TOC] "《Convex Optimization》" 在介绍下降方法之前,我们需要先看一些预备的知识。 预备知识 我们假设目标函数在下水平集上是强凸的,这是指存在,使得 对于任意成立。 注意,这个广义不等式,是
阅读全文
1