会员
周边
众包
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
车天健
首页
新随笔
联系
订阅
管理
2022年9月11日
Self-Attention:初步理解
摘要: Self-Attention 的基本结构与计算 Attention(注意力)实际上就是权重的另一种应用的称呼,其具体结构与初始输入的 content $\vec{x_{1}}, \vec{x_{2}}, \cdots, \vec{x_{n}} \in \mathcal{X}$ 紧密相关。其中, $\
阅读全文
posted @ 2022-09-11 14:54 车天健
阅读(427)
评论(0)
推荐(0)
编辑