会员
周边
众包
新闻
博问
闪存
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
我的锅
stay hungry, stay foolish.
博客园
首页
新随笔
联系
管理
订阅
2019年9月10日
注意力机制及Keras实现
摘要: 注意力往往与encoder-decoder(seq2seq)框架搭在一起,假设我们编码前与解码后的序列如下: 编码时,我们将source通过非线性变换到中间语义: 则我们解码时,第i个输出为: 可以看到,不管i为多少,都是基于相同的中间语义C进行解码的,也就是说,我们的注意力对所有输出都是相同的。所
阅读全文
posted @ 2019-09-10 11:05 我的锅
阅读(10934)
评论(1)
推荐(2)
编辑
公告