会员
周边
捐助
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
老张哈哈哈
博客园
首页
新随笔
联系
订阅
管理
2024年7月2日
LLM学习笔记-attention机制详解
摘要: transformer中用到的注意力机制包括self-attention(intra-attention)和传统的attention(cross-attention),本篇文章将在第一节简述这两者的差别,第二节详述self-attention机制,第三节介绍其实现 self-attention和at
阅读全文
posted @ 2024-07-02 18:26 老张哈哈哈
阅读(491)
评论(0)
推荐(0)
编辑
公告