循环神经网络

转自: https://www.cnblogs.com/Determined22/p/6562555.html

 

 


关于梯度消失问题:

1.网络层次越深, 越容易引起梯度消失, 无论是纵向网络(bp), 还是横向网络(rnn), 梯度消失是由激活函数的导数位于[0,1]区间引起的

2.bp网络梯度消失会导致最前端的W学习不到, 而rnn梯度消失会引起记忆问题,只能学习到短期网络, 具体见https://www.jianshu.com/p/2512302f14c7

3.rnn梯度消失是因为误差间的相乘关系, lstm把这种关系改为了相加, 所以缓解了梯度消失问题

posted @ 2019-06-17 18:51  車輪の唄  阅读(11)  评论(0编辑  收藏  举报  来源