如何计算LSTM层中的参数数量
长短期记忆网络(通常称为“ LSTM”)是一种特殊的RNN,经过精心设计LSTM能够学习长期的依赖。正如他的名字,它可以学习长期和短期的依赖。
每个LSTM层都有四个门:
- Forget gate
- Input gate
- New cell state gate
- Output gate
下面计算一个LSTM单元的参数:
每一个lstm的操作都是线性操作,所以只要计算一个然后乘以4就可以了,下面以Forget gate为例:
h(t-1) — Hidden layer unit from previous timestamps
x(t) — n-dimesnional unit vector
b- bias term
因为已经知道h(t-1)和X(t) W_f和b_f是未知项。这里我们使用LSTM来寻找最终的w_f是[h(t-1), x(t)]的拼接。
W_f:num_units + input_dim: concat [h(t-1), x(t)]
b_f:1
所以来计算参数公式:
num_param = no_of_gate(num_units + input_dim+1)
在整个LSTM层中有四个门,所以最后的方程如下。
num_param = 4(num_units + input_dim+1)
在实际应用时,我们不只是处理单个LSTM cell。如何计算多个cell的参数?
num_params = 4 * [(num_units + input_dim + 1) * num_units]
num_units =来自以前的时间戳隐藏的层单元= output_dim
我们实际计算一个lstm的参数数量
from keras.models import Sequential
from keras.layers import Dense, Dropout, Activation
from keras.layers import Embedding
from keras.layers import LSTM
model = Sequential()
model.add(LSTM(200, input_dim=4096, input_length=16))
model.summary()
keras的计算结果为:
完整文章:
https://avoid.overfit.cn/post/ed5f0d482d5e486387f2708b7d0d58d8
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 全程不用写代码,我用AI程序员写了一个飞机大战
· DeepSeek 开源周回顾「GitHub 热点速览」
· 记一次.NET内存居高不下排查解决与启示
· MongoDB 8.0这个新功能碉堡了,比商业数据库还牛
· .NET10 - 预览版1新功能体验(一)