会员
周边
众包
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
木易修的博K
练内功。。。
博客园
首页
新随笔
联系
订阅
管理
2017年12月25日
使用caffe训练时Loss变为nan的原因总结
摘要: 梯度爆炸 原因:梯度变得非常大,使得学习过程难以继续 现象:观察log,注意每一轮迭代后的loss。loss随着每轮迭代越来越大,最终超过了浮点型表示的范围,就变成了NaN。 措施: 1. 减小solver.prototxt中的base_lr,至少减小一个数量级。如果有多个loss layer,需要
阅读全文
posted @ 2017-12-25 21:47 木易修
阅读(2526)
评论(0)
推荐(0)
编辑
公告