RNN, LSTM

# 矩阵代表变换方式,相当于加减乘除。值就是值。
# :param varname: jsDoc风格的注释,用于说明参数的作用

LSTM笔记、个人理解:

设定:先遗忘→再输入门→输出门
C_t-1负责长时记忆,h_t-1负责短时记忆

image

遗忘门

ft=σ(Wf[ht1,xt]+bf)
[h_t-1,x_t]代表纵向堆叠:[ht1xt]

输入门

it=σ(Wi[ht1,xt]+bi)
c~t=tanh(Wc[ht1,xt]+bc)

长时记忆更新

c=ftct1+itc~t
ft的乘法比后面加法影响更大

输出门

输出:ot=σ(Wo[ht1,xt]+bo)
隐藏层:ht=ottanh(ct)

与RNN对比

本文假设都用:
sigmoid σ 函数:做输出层激活函数
tanh函数:隐藏层激活函数

ot=σ(Woht+bo)
ht=tanh(Winxt+Whht1)

本文作者:Nolca

本文链接:https://www.cnblogs.com/nolca/p/18129596

版权声明:本作品采用 收益分享revenue sharing 许可协议进行许可。

posted @   Nolca  阅读(13)  评论(0编辑  收藏  举报
评论
收藏
关注
推荐
深色
回顶
收起
点击右上角即可分享
微信分享提示
  1. 1 ⏩intro 山姆精
  2. 2 🎸吉他 马叉
  3. 3 ☁升调 山姆精
  4. 4 🐦Flutter Virtual Riot/Madi
  5. 5 🎶纯律 山姆精
  6. 6 👻yeah~Color Bass! VR
🎸吉他 - 马叉
00:00 / 00:00
An audio error has occurred, player will skip forward in 2 seconds.