摘要: 【NLP高频面题 - LLM架构篇】LLM对Transformer都有哪些优化? ⚠︎ 重要性:★★ 阅读全文
posted @ 2024-11-28 13:51 青松^_^ 阅读(19) 评论(0) 推荐(0) 编辑
摘要: 【NLP高频面题 - LLM架构篇】LLM为何使用GQA代替MHA? 重要性:★★ 💯 NLP G 阅读全文
posted @ 2024-11-28 13:48 青松^_^ 阅读(65) 评论(0) 推荐(0) 编辑
摘要: 【人人都能学得会的NLP - 文本分类篇 01】使用ML方法做文本分类任务 NLP Github 项 阅读全文
posted @ 2024-11-28 10:58 青松^_^ 阅读(35) 评论(0) 推荐(0) 编辑
点击右上角即可分享
微信分享提示