会员
周边
众包
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
未雨愁眸
tensorflow群469331966
博客园
::
首页
::
新随笔
::
联系
::
订阅
::
管理
公告
从 RNN 到 LSTM (Short-Term Memory)
理论上循环神经网络可以支持任意长度的序列,然而在实际中,如果序列过长会导致优化时出现梯度消散(the vanishing gradient problem)的问题,在实际中一把会规定一个最大长度,当序列长度超过规定长度后会对序列进行
截断
;
1. variant:GRU(gated recurrent unit)
z
t
=
σ
(
W
z
⋅
[
h
t
−
1
,
x
t
]
)
r
t
=
σ
(
W
r
⋅
[
h
t
−
1
,
x
t
]
)
h
~
t
=
tanh
(
W
⋅
[
r
t
∗
h
t
−
1
,
x
t
]
)
h
t
=
h
t
−
1
∗
(
1
−
z
t
)
+
h
~
t
∗
z
t
posted on
2016-11-28 23:38
未雨愁眸
阅读(
119
) 评论(
0
)
编辑
收藏
举报
刷新页面
返回顶部