摘要: 01.大模型起源与发展 知识点 注意力机制(Attention)的主要用途是什么? 选择重要的信息并忽略不相关的信息 Transformer 模型是基于什么理论构建的? C. 注意力机制(Attention) GPT 和 BERT 的主要区别是什么? C. GPT 使用了单向自注意力,而 BERT 使用了双向自注意力 在注 阅读全文
posted @ 2024-12-19 23:55 李好秀 阅读(21) 评论(0) 推荐(0) 编辑