07 2024 档案

摘要:transformer中用到的注意力机制包括self-attention(intra-attention)和传统的attention(cross-attention),本篇文章将在第一节简述这两者的差别,第二节详述self-attention机制,第三节介绍其实现 self-attention和at 阅读全文
posted @ 2024-07-02 18:26 老张哈哈哈 阅读(668) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示