dynamic memory network

论文:https://arxiv.org/pdf/1506.07285.pdf

模型:https://github.com/XiangwenNing/dynamic-memory-network

(抄自:https://github.com/Shawn1993/Dynamic-Memory-Network-for-Tensorflow)

代码首先对input跟问题进行了embedding,并分别用rnn进行了encoding。然后attention_machanism,get_episode和add_episode_memory_module是从后往前调用的,所以阅读代码的时候,从后往前看。episode作为gru的输入去更新memory,而episode的来源是,拿每个time step的input作为另一个gru的输入,利用公式

hit = gti GRU (ct , hit−1 ) + (1 − gti )hit−1 更新hidden 向量,最后得到的hidden 向量就是episode。

posted on 2019-06-28 15:26  大老虎🐯  阅读(168)  评论(0编辑  收藏  举报