RNN-LSTM入门
RNN-LSTM入门
Last Edited: Dec 02, 2018 10:20 PM
Tags: 机器学习,论文阅读
RNN-Recurrent Neural Network
-
概念:
- 序列数据:简而言之,序列数据就是后面的数据与前面的数据相关的数据,例如上下文、时间序列等。
- 递归神经网络(RNN):在基础神经网络中加入了环形结构,让神经元的输出信号返回继续作为输入信号,目的是让t时刻的输出状态不仅与t时刻的输入相关联,还与t-1时刻的状态相关联。
-
RNN结构图:
左侧为折叠情况下的RNN网络结构图,右侧为展开的RNN网络结构图。x为输入,h为循环的隐层,o为输出,L为损失函数,y是样本中的标准值,U、V、W为权值。
-
标准RNN的特点:
- 随着循环的进行,损失函数L也在积累。
- 权值共享(weight sharing),降低了参数数量。
- 每一个输入值都只与它本身的那条路线建立权连接,不会和别的神经元连接。
-
算法公式:
-
向前传播公式:
ϕ是激活函数,一般选择tanh函数,b为偏置量。
-
t时刻的输出公式:
-
最终的预测模型为:
-
LSTM
-
概念:
-
LSTM网络是RNN的一个变种,在RNN执行的过程中,对于距离较近的关键词有很好的记忆性,但是对于长距离关键词的记忆性比较低。下面两幅图分别展示了这两种情景:
X0、X1是h3的输入,输入与输出之间的距离比较近。
X0、X1与输出h t+1之间的距离太长,RNN对长时间记忆有明显的不足。
由此引出RNN的变种网络:LSTM网络。
-
LSTM网络结构:
- 对于标准RNN网络,h是随着时间不断更新的。在LSTM网络中新加了一个循环点:细胞C。 细胞C随着时间流动带来了长期的记忆。
传统标准RNN网络,只有h是在循环更新的。
LSTM网络,在h更新的同时,细胞也在更新。
上图的图示。
细胞更新的路线。 两个粉色⚪表示信息进行一些基础的运算,在h循环更新的过程中,细胞C的信息也在不断更新。由于细胞C只是进行一些简单的运算,所以它的信息可以在流通中保持大体不变。
这样的结构称为LSTM的”门“结构,可以控制信息的进出。黄色方框里面是一个sigmoid函数。
-
LSTM网络输入输出流程:
-
遗忘:选择忘记过去的某些信息
理解:并不是全部信息都要记住的,需要选择性遗忘。上一层的输入和本层的输入通过sigmoid函数变成一个取值在[0,1]的值,0表示完全遗忘,1表示必须记住。再通过“X”乘法操作与上层数据汇合。这里被称为遗忘门。
-
输入:选择记忆现在的某些信息
理解:将输入的信息分别通过sigmoid函数和tanh函数的处理,共同输入到“X”乘法运算中。同样的Sigmoid函数仍然输出一个[0,1]的值,表示该数据的可以记忆的价值是多少。tanh发挥的作用类似于RNN中发挥的作用,输出一个候选值。由Sigmoid函数决定该值要记忆多少。这里被称为输入门
-
合并:将过去的记忆和现在的记忆合并在一起。
理解:两端记忆分别通过乘法后用加法运算合并到一起。
-
输出:
理解:最后把合并的细胞信息通过tanh函数与sigmoid的输出相乘,得到最终的输入,进入下一个神经元中。这里称为输出门。
在整个过程中,sigmoid函数起的是选择作用。 通过输出的值控制记忆的记忆程度。tanh起的是变换作用,与RNN中的作用类似。此外,LSTM还有其他变体,但是根据测试(Jozefowicz, et al. (2015))各个变体之间的差距很小。
-
-
部分图片来自网友博客,如有侵权,请联系我。
GCA-LSTM(Global Context-Aware Attention LSTM Networks)
原作者为:
Jun Liu , Gang Wang , Ping Hu , Ling-Yu Duan , Alex C. Kot
School of Electrical and Electronic Engineering, Nanyang Technological University, Singapore
Alibaba Group, Hangzhou, China
National Engineering Lab for Video Technology, Peking University, Beijing, China
{jliu029, wanggang, phu005, eackot}@ntu.edu.sg, lingyu@pku.edu.cn