摘要: http://www.wildml.com/2016/01/attention-and-memory-in-deep-learning-and-nlp/ https://www.cnblogs.com/pinard/category/894692.html 阅读全文
posted @ 2018-04-13 23:59 白婷 阅读(133) 评论(0) 推荐(0) 编辑
摘要: 转自:http://www.jeyzhang.com/understand-attention-in-rnn.html,感谢分享! 导读 目前采用编码器-解码器 (Encode-Decode) 结构的模型非常热门,是因为它在许多领域较其他的传统模型方法都取得了更好的结果。这种结构的模型通常将输入序列 阅读全文
posted @ 2018-04-13 23:55 白婷 阅读(3826) 评论(0) 推荐(0) 编辑
摘要: http://www.jeyzhang.com/ 阅读全文
posted @ 2018-04-13 23:53 白婷 阅读(160) 评论(0) 推荐(0) 编辑