目录

  • 前言
  • 1.adagrad
  • 2.动量(Momentum)
  • 3.RMSProp
  • 4.Adam
  • 附1 基于梯度的优化算法前后关系

  • 附二 Gradient Descent补充

 

前言:

https://www.zhihu.com/question/323747423/answer/790457991

Adam本质上实际是RMSProp+动量。但如果你对随机梯度下降SGD的知识,以及Adam之前的几个更新方法一无所知。那么当你看到一个“复杂的”Adam看了就头大(请不要嘲笑初学者,当年我也觉得深度学习各个地方都超复杂)。

现在假设你对反向传播的计算梯度的内容比较了解,一旦能使用反向传播计算解析梯度,梯度就能被用来进行参数更新了

 

 

 

 

 

 

1.adagrad

 

 

 

 

 

 

 

 

2.动量(Momentum)

 

 

 

 

  

 

 

 

 

3.RMSProp

  

 

 4.Adam

 

 

 

 

附1 基于梯度的优化算法前后关系


 

附二 Gradient Descent补充

https://www.jianshu.com/p/8b7105a2c242

 

 

 

 

 

 

 

 

 

posted on 2020-01-07 16:40  rin_riceroll  阅读(2581)  评论(0编辑  收藏  举报