摘要: transformer中用到的注意力机制包括self-attention(intra-attention)和传统的attention(cross-attention),本篇文章将在第一节简述这两者的差别,第二节详述self-attention机制,第三节介绍其实现 self-attention和at 阅读全文
posted @ 2024-07-02 18:26 老张哈哈哈 阅读(491) 评论(0) 推荐(0) 编辑