数据并行与模型并行

数据并行与模型并行
为了加快模型的训练,可以使用分布式计算的思路,把这个大批次分割为很多小批次,使用多个节点进行计算,在每个节点上计算一个小批次,对若干个节点的梯度进行汇总后再加权平均,最终求和就得到了最终的大批次的梯度结果。

 

 

 在上面这个公式中:w是模型的参数;

是采用batch_size = n计算得到的真实梯度。这个公式想要证明的是,可以在不同的节点上分别对n的一部分进行梯度的计算,将各个GPU的梯度进行汇总后的加权平均值。公式中最后一行中,在第k个节点有​个数据,是该节点上计算得到梯度。

 

 ,n个样本数据被分拆到了多个节点上。

其中,是样本数据i的特征和标签;对于样本数据i,f()是前向传播的损失函数。

如果对每个节点上的数据量平分,有:

 

 

 图1. 传统参数服务器工作流程

 

 

 图 2. 不同的训练并行化策略,2(a) 展示了数据并行化训练,2(b) 展示了模型并行化训练

 

 

 图3. 纯GPU参数服务器工作流程

 

 

 图4. 异构参数服务器示意图


posted @   吴建明wujianming  阅读(863)  评论(0编辑  收藏  举报
编辑推荐:
· 记一次.NET内存居高不下排查解决与启示
· 探究高空视频全景AR技术的实现原理
· 理解Rust引用及其生命周期标识(上)
· 浏览器原生「磁吸」效果!Anchor Positioning 锚点定位神器解析
· 没有源码,如何修改代码逻辑?
阅读排行:
· 全程不用写代码,我用AI程序员写了一个飞机大战
· DeepSeek 开源周回顾「GitHub 热点速览」
· 记一次.NET内存居高不下排查解决与启示
· MongoDB 8.0这个新功能碉堡了,比商业数据库还牛
· .NET10 - 预览版1新功能体验(一)
历史上的今天:
2020-06-15 Python 应用领域以及版本之间的区别
2020-06-15 TorchScript神经网络集成技术
2020-06-15 PyTorch神经网络集成技术
2020-06-15 Keras神经网络集成技术
2020-06-15 TensorFlow神经网络集成方案
2020-06-15 深度学习框架集成平台C++ Guide指南
2020-06-15 机器视觉系统的几个问题解析
点击右上角即可分享
微信分享提示