会员
周边
捐助
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
午夜稻草人
博客园
::
首页
::
博问
::
闪存
::
新随笔
::
联系
::
订阅
::
管理
::
公告
2019年1月29日
梯度消失(vanishing gradient)和梯度爆炸(exploding gradient)
摘要: 转自https://blog.csdn.net/guoyunfei20/article/details/78283043 神经网络中梯度不稳定的根本原因:在于前层上的梯度的计算来自于后层上梯度的乘积(链式法则)。当层数很多时,就容易出现不稳定。下边3个隐含层为例: 其b1的梯度为: 推导过程(参考)
阅读全文
posted @ 2019-01-29 11:11 午夜稻草人
阅读(261)
评论(0)
推荐(0)
编辑