会员
周边
众包
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
【B站:水论文的程序猿】
道阻且长,与君共勉
首页
新随笔
联系
管理
2022年7月24日
1001 Attention 和 Self-Attention 的区别(还不能区分我就真的无能为力了)
摘要: 通过 pytorch 去构建一个 transformer 的框架 不是导包,不是调包侠 注意力机制是一个很宽泛(宏大)的一个概念,QKV 相乘就是注意力,但是他没有规定 QKV是怎么来的 通过一个查询变量 Q,去找到 V 里面比较重要的东西 假设 K==V,然后 QK 相乘求相似度A,然后 AV 相
阅读全文
posted @ 2022-07-24 10:42 B站-水论文的程序猿
阅读(5156)
评论(0)
推荐(0)
编辑
公告