随笔分类 -  数值解

1
摘要:目录概符号说明思路 Li H., Jadbabaie A. and Rakhlin A. Convergence of adam under relaxed assumptions. NeurIPS, 2023. 概 本文探讨了 Adam 再较弱的假设下的收敛性. 作者的证明思路非常有趣, 虽然条件 阅读全文
posted @ 2025-01-13 16:42 馒头and花卷 阅读(6) 评论(0) 推荐(0) 编辑
摘要:Kingma D P, Ba J. Adam: A Method for Stochastic Optimization[J]. arXiv: Learning, 2014. @article{kingma2014adam:, title=, author={Kingma, Diederik P a 阅读全文
posted @ 2020-06-04 21:59 馒头and花卷 阅读(1328) 评论(0) 推荐(0) 编辑
摘要:@ Das S, Suganthan P N. Differential Evolution: A Survey of the State-of-the-Art[J]. IEEE Transactions on Evolutionary Computation, 2011, 15(1): 4-31. 阅读全文
posted @ 2020-04-13 23:43 馒头and花卷 阅读(542) 评论(0) 推荐(0) 编辑
摘要:[TOC] "Malitsky Y, Mishchenko K. Adaptive gradient descent without descent[J]. arXiv: Optimization and Control, 2019." 概 本文提出了一种自适应步长的梯度下降方法(以及多个变种方法) 阅读全文
posted @ 2020-03-26 22:02 馒头and花卷 阅读(419) 评论(0) 推荐(0) 编辑
摘要:[TOC] 本节介绍一些例子. LASSO 考虑如下问题: min(1/2)Axb22+γx1, 其中xRn,ARm×n. proximal grad 阅读全文
posted @ 2019-06-20 10:01 馒头and花卷 阅读(269) 评论(0) 推荐(0) 编辑
摘要:[TOC] "Proximal Algorithms" 需要注意的一点是,本节所介绍的例子可以通过第二节的性质进行延展. 一般方法 一般情况下proximal需要解决下面的问题: 其中xRn, C=domf. 我们可以 阅读全文
posted @ 2019-06-18 10:24 馒头and花卷 阅读(719) 评论(0) 推荐(0) 编辑
摘要:[TOC] "Proximal Algorithms" 这一节,介绍并行算法的实现. 问题的结构 令[n]={1,,n}. 给定c[n], 让xcR|c|表示向量xRn的一个 阅读全文
posted @ 2019-06-11 09:55 馒头and花卷 阅读(261) 评论(0) 推荐(0) 编辑
摘要:[TOC] "Proximal Algorithms" 这一节介绍了一些利用proximal的算法. Proximal minimization 这个相当的简单, 之前也提过,就是一个依赖不动点的迭代方法: 有些时候λ不是固定的: $$ x^{k+1} := \mathbf{prox 阅读全文
posted @ 2019-06-09 21:03 馒头and花卷 阅读(634) 评论(0) 推荐(0) 编辑
摘要:[TOC] "Proximal Algorithms" 这一节,作者总结了一些关于proximal的一些直观解释 Moreau Yosida regularization 内部卷积(infimal convolution): $$ (f \: \Box \: g)(v)=\inf_x (f(x)+g 阅读全文
posted @ 2019-06-08 22:50 馒头and花卷 阅读(704) 评论(0) 推荐(0) 编辑
摘要:[TOC] 可分和 如果f可分为俩个变量:f(x,y)=φ(x)+ψ(y), 于是: 如果f是完全可分的,即f(x)=i=1nfi(xi): $$ (\mathbf{prox}_f(v))_i = \mathbf{prox}_{f_ 阅读全文
posted @ 2019-06-08 12:08 馒头and花卷 阅读(381) 评论(0) 推荐(0) 编辑
摘要:[TOC] "Proximal Algorithms" 定义 令f:RnR{+}为闭的凸函数,即其上镜图: $$ \mathbf{epi} f = \{ (x, t) \in \mathrm{R}^ 阅读全文
posted @ 2019-06-03 18:38 馒头and花卷 阅读(910) 评论(0) 推荐(1) 编辑
摘要:[TOC] "" 引 这篇论文比较短,先看了这篇,本来应该先把ADAGRAD看了的。普通的基于梯度下降的方法,普遍依赖于步长,起始点的选择,所以,受ADAGRAD的启发,作者提出了一种ADADELTA的方法。 $$ \Delta x_t = \frac{\mathrm{RMS}[\Delta x]_ 阅读全文
posted @ 2019-05-24 10:50 馒头and花卷 阅读(337) 评论(0) 推荐(0) 编辑
摘要:[TOC] "Efron B, Hastie T, Johnstone I M, et al. Least angle regression[J]. Annals of Statistics, 2004, 32(2): 407 499." 引 在回归分析中,我们常常需要选取部分特征,而不是全都要,所 阅读全文
posted @ 2019-05-23 11:30 馒头and花卷 阅读(836) 评论(1) 推荐(0) 编辑
摘要:[TOC] Momentum Momentum的迭代公式为: vt=γvt1+ηθJ(θ)θ=θvt 其中J()一般为损失函数。我们知道,一般的梯度下降,是没有$\ga 阅读全文
posted @ 2019-05-19 11:20 馒头and花卷 阅读(434) 评论(0) 推荐(0) 编辑
摘要:[TOC] "《Convex Optimization》" 数值解这么走下去,却不好好弄弄关于线性方程组的求解,总感觉很别扭,既然《凸优化》也很详细地介绍了这一块东西,我就先跳过别的把这一块整一整吧。 容易求解的线性方程组 先讨论Ax=b很容易求解的情况,即A为满秩的方阵,方程有唯一的解 阅读全文
posted @ 2019-04-17 21:09 馒头and花卷 阅读(1248) 评论(0) 推荐(0) 编辑
摘要:[TOC] "《Subgradients》" "Subderivate wiki" "Subgradient method wiki" "《Subgradient method》" "Subgradient Prof.S.Boyd,EE364b,StanfordUniversity" "《Chara 阅读全文
posted @ 2019-04-12 16:07 馒头and花卷 阅读(2968) 评论(0) 推荐(0) 编辑
摘要:[TOC] "《Subgradients》" "Subderivate wiki" "Subgradient method wiki" "《Subgradient method》" "Subgradient Prof.S.Boyd,EE364b,StanfordUniversity" "《Chara 阅读全文
posted @ 2019-04-11 15:49 馒头and花卷 阅读(1037) 评论(0) 推荐(0) 编辑
摘要:[TOC] "《Convex Optimization》" 之前,讲的下降方法以及Newton方法都是在无约束条件的前提下的。这里讨论的是在等式约束(线性方程)的前提下讨论的。我们研究的是下面的凸优化问题: $$ \begin{array}{ll} minimize & f(x) \\ s.t. & 阅读全文
posted @ 2019-03-29 16:51 馒头and花卷 阅读(1970) 评论(0) 推荐(0) 编辑
摘要:[TOC] "《Convex Optimization》" 最速下降方法 f(x+v)v=0处的一阶泰勒展开为: f(x+v)f^(x+v)=f(x)+f(x)Tv f(x)Tvfx处沿$ 阅读全文
posted @ 2019-03-18 18:58 馒头and花卷 阅读(2943) 评论(0) 推荐(0) 编辑
摘要:[TOC] "《Convex Optimization》" 在介绍下降方法之前,我们需要先看一些预备的知识。 预备知识 我们假设目标函数在下水平集S上是强凸的,这是指存在m0,使得 2f(x)mI 对于任意x成立。 注意,这个广义不等式,是 阅读全文
posted @ 2019-03-16 12:00 馒头and花卷 阅读(1595) 评论(0) 推荐(0) 编辑

1
点击右上角即可分享
微信分享提示