会员
周边
众包
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
Persistent.
昨日种种,皆成今我,切莫思量,更莫哀,从今往后,怎么收获,怎么栽.
博客园
首页
新随笔
联系
订阅
管理
2021年9月26日
深度学习/NLP中的Attention注意力机制
摘要: 首先是整体认知,Attention的位置: 传送门1:Attention 机制 传送门2:Attention用于NLP的一些小结 一句话概括:Attention就是从关注全局到关注重点。 借鉴了人类视觉的选择性注意力机制,核心目标也是从众多信息中选择出更关键的信息。 Attention的思路就是:带
阅读全文
posted @ 2021-09-26 15:32 ZERO-
阅读(443)
评论(0)
推荐(0)
编辑
公告