会员
周边
众包
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
Django's blog
博客园
首页
新随笔
联系
订阅
管理
关于梯度消失,梯度爆炸的问题
随着神经网络层数的增加,会出现梯度消失或者梯度爆炸的问题,下面细说下问什么会出现:
起初的学习率固定。
下面来看几组通过增加隐藏层层数后的学习率变化图:
posted @
2017-10-20 14:59
Django's blog
阅读(
286
) 评论(
0
)
编辑
收藏
举报
刷新页面
返回顶部
公告