会员
周边
众包
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
Sarah_Ann
博客园
首页
新随笔
联系
订阅
管理
2018年10月13日
关于注意力机制(《Attention is all you need》)
摘要: 深度学习做NLP的方法,基本上都是先将句子分词,然后每个词转化为对应的词向量序列。(https://kexue.fm/archives/4765) 第一个思路是RNN层,递归进行,但是RNN无法很好地学习到全局的结构信息,因为它本质是一个马尔科夫决策过程。 第二个思路是CNN层,其实CNN的方案也是
阅读全文
posted @ 2018-10-13 22:09 谁动了我的奶盖
阅读(4716)
评论(0)
推荐(0)
编辑
公告