会员
周边
捐助
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
李好秀
博客园
首页
新随笔
联系
订阅
管理
2024年12月19日
01.大模型起源与发展
摘要:
知识点 注意力机制(Attention)的主要用途是什么? 选择重要的信息并忽略不相关的信息 Transformer 模型是基于什么理论构建的? C. 注意力机制(Attention) GPT 和 BERT 的主要区别是什么? C. GPT 使用了单向自注意力,而 BERT 使用了双向自注意力 在注
阅读全文
posted @ 2024-12-19 23:55 李好秀
阅读(21)
评论(0)
推荐(0)
编辑
公告