会员
周边
捐助
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
游园惊梦(https://github.com/chenghuige)
博客园
首页
新随笔
联系
订阅
管理
2017年1月8日
Tensorflow Seq2seq attention decode解析
摘要: tensorflow基于 Grammar as a Foreign Language实现,这篇论文给出的公式也比较清楚。 这里关注seq2seq.attention_decode函数, 主要输入 decoder_inputs, initial_state, attention_states, 这里可以主要参考 models/textsum的应用,textsum采用的多层双向...
阅读全文
posted @ 2017-01-08 10:00 阁子
阅读(11344)
评论(1)
推荐(0)
编辑
公告