会员
周边
捐助
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
奋斗的小仔
博客园
首页
新随笔
联系
订阅
管理
2021年9月12日
PyTorch笔记--自动调整学习率
摘要: 我们在训练的过程中,经常会出现loss不再下降的问题,但是此时gradient可能并没有很小,并非处于驻点。 可能是出现了梯度在山谷的山谷壁之间来回震荡的情况。gradient依然很大,但是loss不再减小了。 整个训练过程中,每个参数都一直使用同一个学习率,对于优化而言是不够的。学习率调整的原则是
阅读全文
posted @ 2021-09-12 14:34 奋斗的小仔
阅读(403)
评论(0)
推荐(0)
编辑
公告