会员
周边
众包
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
marsggbo
互道晚安,王者峡谷见
博客园
首页
新随笔
联系
订阅
管理
2023年12月7日
LLM 学习笔记-Deepspeed-MoE 论文
摘要: 论文 DeepSpeed-MoE: Advancing Mixture-of-Experts Inference and Training to Power Next-Generation AI Scale 1. Introduction 现有的 MoE 方法在正式使用场景中存在的挑战: 场景局限:
阅读全文
posted @ 2023-12-07 17:32 marsggbo
阅读(2648)
评论(0)
推荐(0)
编辑
公告