sgd优化器和Adam优化器之间的区别

Adam = Adaptive + Momentum,顾名思义Adam集成了SGD的一阶动量和RMSProp的二阶动量。

 

 

 

参考:

https://blog.csdn.net/q295684174/article/details/79130666

posted @ 2019-07-26 20:19  bH1pJ  阅读(231)  评论(0编辑  收藏  举报