会员
周边
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
纸上得来终觉浅,绝知此事要躬行。
博客园
首页
新随笔
联系
订阅
管理
2024年12月29日
集合通信及其通信原语
摘要: 1. 前言 大模型训练离不开集合通信 大模型分布式训练往往需要上千乃至上万 GPU 卡进行超大规模并行训练,是典型的计算密集型和通信密集型场景。 在真实的场景中,为了高效的训练,我们一般采用多种并行策略混合的方式。常见的包括数据并行,流水并行,张量并行,序列并行,专家并行,其中张量并行和流水线并行都
阅读全文
posted @ 2024-12-29 14:05 松—松
阅读(299)
评论(0)
推荐(0)
公告