上一页 1 ··· 7 8 9 10 11 12 13 14 15 ··· 30 下一页
摘要: 在前文中,我们介绍了PipeDream的总体架构,Profile阶段和计算分区阶段。本文我们介绍模型转换阶段。 阅读全文
posted @ 2021-09-07 20:27 罗西的思考 阅读(1149) 评论(0) 推荐(0) 编辑
摘要: 在前文中,我们介绍了PipeDream的总体架构和Profile阶段,本文我们继续介绍计算分区阶段。 阅读全文
posted @ 2021-09-03 17:06 罗西的思考 阅读(1553) 评论(2) 推荐(1) 编辑
摘要: 继 GPipe 之后,我们开一个流水线并行训练新系列,介绍微软的PipeDream。本文介绍其总体思路,架构和Profile阶段。 阅读全文
posted @ 2021-09-01 19:24 罗西的思考 阅读(4531) 评论(2) 推荐(1) 编辑
摘要: GPipe是一个基于 Google Brain 开发的,支持超大规模模型的神经网络训练并行库,本文介绍其重计算功能,同时可以和其他实现一起印证。 阅读全文
posted @ 2021-08-30 19:43 罗西的思考 阅读(4420) 评论(3) 推荐(2) 编辑
摘要: 梯度累积是一种增大训练时 batch size的技术,在本地使用 micro-batch 多次进行正向和反向传播积累梯度后,再进行梯度规约和优化器更新,这是用来均摊通信成本的一种常用策略。本文通过几个框架/库的实现对比,让大家对这个技术有进一步的了解。 阅读全文
posted @ 2021-08-26 08:27 罗西的思考 阅读(2350) 评论(0) 推荐(2) 编辑
摘要: GPipe 是一个基于 Lingvo (Lingvo 是 Google 基于 TensorFlow 二次开发的重点针对序列模型的框架)开发的,支持超大规模模型的神经网络训练并行库,本文介绍其基本功能和流水线机制。 阅读全文
posted @ 2021-08-23 08:24 罗西的思考 阅读(7476) 评论(4) 推荐(4) 编辑
摘要: Paracel是豆瓣开发的一个分布式计算框架,它基于参数服务器范式,用于解决机器学习的问题。前文介绍了PyTorch 的数据处理部分,本文接着介绍Paracel的数据处理部分,正好可以与PyTorch做一下印证。 阅读全文
posted @ 2021-08-21 09:11 罗西的思考 阅读(432) 评论(0) 推荐(0) 编辑
摘要: 为了更好的介绍参数服务器Paracel的数据加载,我们临时插入两篇PyTorch的数据加载,主要是从分布式的角度进行切入。本文介绍 DataLoader。 阅读全文
posted @ 2021-08-18 08:12 罗西的思考 阅读(3839) 评论(2) 推荐(1) 编辑
摘要: 为了更好的介绍参数服务器Paracel的数据加载,我们临时插入两篇PyTorch的数据加载(因为字数太长,所以拆成两篇),主要是从分布式的角度进行切入。本文介绍 DistributedSampler。 阅读全文
posted @ 2021-08-15 10:32 罗西的思考 阅读(8906) 评论(0) 推荐(1) 编辑
摘要: Paracel是豆瓣开发的一个分布式计算框架,它基于参数服务器范式来解决机器学习的问题。本文主要分析其SSP的实现。 阅读全文
posted @ 2021-08-13 20:16 罗西的思考 阅读(575) 评论(0) 推荐(0) 编辑
上一页 1 ··· 7 8 9 10 11 12 13 14 15 ··· 30 下一页