会员
周边
众包
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
neumy
这里居住着一只小白
博客园
首页
新随笔
联系
订阅
管理
2022年2月24日
从Attention到Self-Attention再到Multi-Head Attention的一点小笔记
摘要: 从Attention 到 MultiHeadAttention 对Attention 的理解 Attention的本质类似于我们人类的注意力机制,寄希望于将有限的注意力集中于重点上,从而节省资源以获得最为有效的信息。 那么对于神经网络来说,什么是注意力呢?而又如何分辨什么是重点?简单来说,Atten
阅读全文
posted @ 2022-02-24 17:05 neumy
阅读(2211)
评论(0)
推荐(0)
编辑
公告