数据并行与模型并行
数据并行与模型并行
为了加快模型的训练,可以使用分布式计算的思路,把这个大批次分割为很多小批次,使用多个节点进行计算,在每个节点上计算一个小批次,对若干个节点的梯度进行汇总后再加权平均,最终求和就得到了最终的大批次的梯度结果。
在上面这个公式中:w是模型的参数;
是采用batch_size = n计算得到的真实梯度。这个公式想要证明的是,可以在不同的节点上分别对n的一部分进行梯度的计算,将各个GPU的梯度进行汇总后的加权平均值。公式中最后一行中,在第k个节点有
个数据,
是该节点上计算得到梯度。
,n个样本数据被分拆到了多个节点上。
其中,,
是样本数据i的特征和标签;对于样本数据i,f(
,
)是前向传播的损失函数。
如果对每个节点上的数据量平分,有:
图1. 传统参数服务器工作流程
图 2. 不同的训练并行化策略,2(a) 展示了数据并行化训练,2(b) 展示了模型并行化训练
图3. 纯GPU参数服务器工作流程
图4. 异构参数服务器示意图
人工智能芯片与自动驾驶
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 记一次.NET内存居高不下排查解决与启示
· 探究高空视频全景AR技术的实现原理
· 理解Rust引用及其生命周期标识(上)
· 浏览器原生「磁吸」效果!Anchor Positioning 锚点定位神器解析
· 没有源码,如何修改代码逻辑?
· 全程不用写代码,我用AI程序员写了一个飞机大战
· DeepSeek 开源周回顾「GitHub 热点速览」
· 记一次.NET内存居高不下排查解决与启示
· MongoDB 8.0这个新功能碉堡了,比商业数据库还牛
· .NET10 - 预览版1新功能体验(一)
2020-06-15 Python 应用领域以及版本之间的区别
2020-06-15 TorchScript神经网络集成技术
2020-06-15 PyTorch神经网络集成技术
2020-06-15 Keras神经网络集成技术
2020-06-15 TensorFlow神经网络集成方案
2020-06-15 深度学习框架集成平台C++ Guide指南
2020-06-15 机器视觉系统的几个问题解析