会员
周边
捐助
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
rongyux
博客园
首页
新随笔
联系
订阅
管理
2017年4月18日
讨论LSTM和RNN梯度消失问题
摘要: 1RNN为什么会有梯度消失问题 (1)沿时间反向方向:t-n时刻梯度=t时刻梯度* π(W*激活函数的导数) (2)沿隐层方向方向:l-n层的梯度=l层的梯度*π(U*激活函数的导数) 所以激活函数的导数和W连乘可以造成梯度消失和爆炸;由函数曲线看sigmoid的导数最大是1/4; 2LSTM可以避
阅读全文
posted @ 2017-04-18 18:35 rongyux
阅读(7590)
评论(0)
推荐(0)
编辑
公告