dynamic memory network
论文:https://arxiv.org/pdf/1506.07285.pdf
模型:https://github.com/XiangwenNing/dynamic-memory-network
(抄自:https://github.com/Shawn1993/Dynamic-Memory-Network-for-Tensorflow)
代码首先对input跟问题进行了embedding,并分别用rnn进行了encoding。然后attention_machanism,get_episode和add_episode_memory_module是从后往前调用的,所以阅读代码的时候,从后往前看。episode作为gru的输入去更新memory,而episode的来源是,拿每个time step的input作为另一个gru的输入,利用公式
hit = gti GRU (ct , hit−1 ) + (1 − gti )hit−1 更新hidden 向量,最后得到的hidden 向量就是episode。