会员
周边
捐助
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
游园惊梦(https://github.com/chenghuige)
博客园
首页
新随笔
联系
订阅
管理
2017年1月31日
Dynamic attention in tensorflow
摘要: 新代码在contrib\seq2seq\python\ops\attention_decoder_fn.py 和之前代码相比 不再采用conv的方式来计算乘,直接使用乘法和linear 给出了两种attention的实现 传统的"bahdanau": additive (Bahdanau et al
阅读全文
posted @ 2017-01-31 22:41 阁子
阅读(2708)
评论(1)
推荐(0)
编辑
公告