会员
周边
众包
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
wuliytTaotao
努力努力再努力(ง •̀_•́)ง 研究方向:计算广告、主动学习、半监督学习
博客园
首页
新随笔
联系
订阅
管理
2019年6月28日
Adam和学习率衰减(learning rate decay)
摘要: 本文简单介绍了 Adam 优化器,并讨论一个问题:Adam 这个自适应学习率的优化器还有必要使用学习率衰减(learning rate decay)吗?
阅读全文
posted @ 2019-06-28 17:06 wuliytTaotao
阅读(76175)
评论(3)
推荐(9)
编辑
公告