摘要: 自注意力机制 self-attention 红色框中的这四个向量是考虑了整个sequence后的输出,而且self-attention不仅可以使用一次, transformer中最重要的就是self-attention 根据a1找到和a1相关的向量,比如如何计算a1和\ 阅读全文
posted @ 2024-09-11 15:43 计算机飞翔 阅读(193) 评论(0) 推荐(0) 编辑
点击右上角即可分享
微信分享提示