如何计算LSTM层中的参数数量

长短期记忆网络(通常称为“ LSTM”)是一种特殊的RNN,经过精心设计LSTM能够学习长期的依赖。正如他的名字,它可以学习长期和短期的依赖。

每个LSTM层都有四个门:

  1. Forget gate
  2. Input gate
  3. New cell state gate
  4. Output gate

下面计算一个LSTM单元的参数:

每一个lstm的操作都是线性操作,所以只要计算一个然后乘以4就可以了,下面以Forget gate为例:

  1. h(t-1) Hidden layer unit from previous timestamps
  2. x(t) n-dimesnional unit vector
  3. b- bias term

因为已经知道h(t-1)和X(t) W_f和b_f是未知项。这里我们使用LSTM来寻找最终的w_f是[h(t-1), x(t)]的拼接。

  1. W_f:num_units + input_dim: concat [h(t-1), x(t)]
  2. b_f:1

所以来计算参数公式:

  1. num_param = no_of_gate(num_units + input_dim+1)

在整个LSTM层中有四个门,所以最后的方程如下。

  1. num_param = 4(num_units + input_dim+1)

在实际应用时,我们不只是处理单个LSTM cell。如何计算多个cell的参数?

  1. num_params = 4 * [(num_units + input_dim + 1) * num_units]

num_units =来自以前的时间戳隐藏的层单元= output_dim

我们实际计算一个lstm的参数数量

  1. from keras.models import Sequential
  2. from keras.layers import Dense, Dropout, Activation
  3. from keras.layers import Embedding
  4. from keras.layers import LSTM
  5. model = Sequential()
  6. model.add(LSTM(200, input_dim=4096, input_length=16))
  7. model.summary()

keras的计算结果为:

 

完整文章:

https://avoid.overfit.cn/post/ed5f0d482d5e486387f2708b7d0d58d8

posted @ 2022-06-08 10:45  deephub  阅读(104)  评论(0编辑  收藏  举报