我的github

从RNN到LSTM:https://link.jianshu.com/?t=http://colah.github.io/posts/2015-08-Understanding-LSTMs/

RNN,

通过RNN,信息可以向前传递。

但是,RNN有个缺点,就是当循环的间隔太长,梯度消失的问题。

按理说,通过调节参数,RNN也能处理这类长期的传递问题,但是因为某些基础的问题,RNN难以胜任这类。【参考:Hochreiter (1991) [German] 和Bengio, et al. (1994)的研究】

LSTM,

 几个门的功能:

posted on 2018-06-08 13:48  XiaoNiuFeiTian  阅读(197)  评论(0编辑  收藏  举报