会员
周边
众包
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
计算机飞翔
博客园
首页
新随笔
联系
订阅
管理
2024年9月11日
自注意力机制(self-attention)
摘要: 自注意力机制 self-attention 红色框中的这四个向量是考虑了整个sequence后的输出,而且self-attention不仅可以使用一次, transformer中最重要的就是self-attention 根据\(a^1\)找到和\(a^1\)相关的向量,比如如何计算\(a^1\)和\
阅读全文
posted @ 2024-09-11 15:43 计算机飞翔
阅读(32)
评论(0)
推荐(0)
编辑
公告