会员
周边
众包
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
行远自迩 登高自卑
博客园
首页
新随笔
联系
订阅
管理
2020年2月26日
Attention is all your need 详解
摘要: 什么是Attention 在 seq to seq 模型中, 我们常常在 decoder 阶段加入Attention 机制, 主要是对于decoder 的隐含层输入, 引入更多的有关 encoder 序列中, 中间步骤的信息. 在这里就不详细解释了, 我们将Attention 从模型中剥离出来, 以
阅读全文
posted @ 2020-02-26 21:31 虾野百鹤
阅读(1022)
评论(1)
推荐(0)
编辑
公告