摘要: DeepSeek爆火之后,经常听到“参数”、8b、14b、32b、70b和671b...,“GPT-3有1750亿参数”“DeepSeek-V3含6710亿参数”,“参数”以及这些天文数字具体是啥意思?有大模型,是否还有“中模型”,“小模型”?今天我们就用“搭积木”和“学生脑”的比喻,揭开参数的神秘 阅读全文
posted @ 2025-03-04 00:37 智慧园区-老朱 阅读(28) 评论(0) 推荐(0) 编辑
点击右上角即可分享
微信分享提示