随笔 - 304  文章 - 0  评论 - 35  阅读 - 18万

[转载]OpenBMB:让大模型飞入千家万户

预训练大模型的三大挑战 :
▶ 训练难:训练数据量大,算力成本高。
▶ 微调难:微调参数量大,微调时间长。
▶ 应用难:推理速度慢,响应时间长,难以满足线上业务需求。

https://mp.weixin.qq.com/s/leUQz3VcyCkfY6Xx2G39mg

官网 https://www.openbmb.org/home

已经入驻模型:CPM1、CPM2、EVA

  • CPM1是一个拥有26亿参数的生成式中文预训练语言模型。
    CPM1的模型架构与GPT类似,它能够被应用于广泛的自然语言处理任务,如对话、文章生成、完形填空和语言理解。

  • CPM2是一个拥有110亿参数的通用中英文双语预训练语言模型,基于encoder-decoder架构。CPM2具有7种通用语言能力。
    2021年9月CPM2推出升级版本CPM2.1,CPM2.1新增了生成式的预训练任务并基于持续学习范式进行训练,生成能力进行了大幅度强化。

  • EVA 是一个28亿参数的中文预训练对话模型,基于encoder-decoder架构。
    EVA在很多对话任务上表现优异,尤其是在多轮人机交互对话任务上。

git地址:https://github.com/OpenBMB

posted on   宋岳庭  阅读(212)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 开源Multi-agent AI智能体框架aevatar.ai,欢迎大家贡献代码
· Manus重磅发布:全球首款通用AI代理技术深度解析与实战指南
· 被坑几百块钱后,我竟然真的恢复了删除的微信聊天记录!
· 没有Manus邀请码?试试免邀请码的MGX或者开源的OpenManus吧
· 园子的第一款AI主题卫衣上架——"HELLO! HOW CAN I ASSIST YOU TODAY
< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5

点击右上角即可分享
微信分享提示