Toriyung

导航

< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5

统计

神经网络优化:Adam(Adaptive Moment Estimation)

Adam算法其实就是结合了动量梯度下降法和RMSprop算法,是最广为使用的算法,在大多数情况下都有效果。


动量梯度算法和RMSprop算法的复习

动量:https://www.cnblogs.com/toriyung/p/16467289.html

RMS:https://www.cnblogs.com/toriyung/p/16537212.html

 

先和以往一样,计算V和S(记得修正)

 

 

然后更新

 

 

 

 

参数

 Adam算法涉及到四个参数

  α:需要进行调试和选择

  β1:动量算法滑动均值的权重,默认为0.9

  β2:RMSprop算法的权重,默认为0.999

  ε:RMSprop算法的除数规避常数,默认为1e-8

posted on   Toriyung  阅读(394)  评论(0编辑  收藏  举报

相关博文:
阅读排行:
· 无需6万激活码!GitHub神秘组织3小时极速复刻Manus,手把手教你使用OpenManus搭建本
· Manus爆火,是硬核还是营销?
· 终于写完轮子一部分:tcp代理 了,记录一下
· 别再用vector<bool>了!Google高级工程师:这可能是STL最大的设计失误
· 单元测试从入门到精通
点击右上角即可分享
微信分享提示