会员
周边
众包
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
wuliytTaotao
努力努力再努力(ง •̀_•́)ง 研究方向:计算广告、主动学习、半监督学习
博客园
首页
新随笔
联系
订阅
管理
2020年1月11日
【tf.keras】AdamW: Adam with Weight decay
摘要: 论文 "Decoupled Weight Decay Regularization" 中提到,Adam 在使用时,L2 regularization 与 weight decay 并不等价,并提出了 AdamW,在神经网络需要正则项时,用 AdamW 替换 Adam+L2 会得到更好的性能。 Ten
阅读全文
posted @ 2020-01-11 00:45 wuliytTaotao
阅读(9156)
评论(0)
推荐(0)
编辑
公告