随笔分类 -  001_机器学习

上一页 1 2 3 4 5 6 7 8 ··· 10 下一页
摘要:在前面的文章之中,我们已经学习了PyTorch 分布式的基本模块,介绍了官方的几个例子,我们接下来会介绍PyTorch的弹性训练,本文是第一篇,介绍其历史和设计理念,也会与Horovod做一下对比。 阅读全文
posted @ 2021-12-22 09:36 罗西的思考 阅读(3176) 评论(0) 推荐(0) 编辑
摘要:在前面的文章之中,我们已经学习了PyTorch 分布式的基本模块,接下来我们通过几篇文章来看看如何把这些模块应用到实践之中,顺便把PyTorch分布式逻辑整体梳理一下。本文介绍如何使用 RPC 来完成分布式管道并行。 阅读全文
posted @ 2021-12-20 10:03 罗西的思考 阅读(1369) 评论(0) 推荐(0) 编辑
摘要:在前面的文章之中,我们已经学习了PyTorch 分布式的基本模块,接下来我们通过几篇文章来看看如何把这些模块应用到实践之中,顺便把PyTorch分布式逻辑整体梳理一下。本文介绍如何把DDP和RPC framework结合起来。 阅读全文
posted @ 2021-12-16 20:38 罗西的思考 阅读(1779) 评论(0) 推荐(0) 编辑
摘要:在前面的文章之中,我们已经学习了PyTorch 分布式的基本模块,接下来我们通过几篇文章来看看如何把这些模块应用到实践之中,顺便把PyTorch分布式逻辑整体梳理一下。本文介绍如何使用异步执行操作来实现批处理 RPC,大家可以学习到PyTorch对参数服务器一个新的实现方式。 阅读全文
posted @ 2021-12-15 21:04 罗西的思考 阅读(1121) 评论(3) 推荐(1) 编辑
摘要:在前面的文章之中,我们已经学习了PyTorch 分布式的基本模块,接下来我们通过几篇文章来看看如何把这些模块应用到实践之中,顺便把PyTorch分布式逻辑整体梳理一下。本文介绍如何使用分布式 RPC 框架实现参数服务器。 阅读全文
posted @ 2021-12-14 17:03 罗西的思考 阅读(1622) 评论(2) 推荐(0) 编辑
摘要:在前面的文章之中,我们已经学习了PyTorch 分布式的基本模块,接下来我们通过几篇文章来看看如何把这些模块应用到实践之中,顺便把PyTorch分布式逻辑整体梳理一下。本文介绍如何把分布式自动微分和分布式优化器结合起来训练一个模型。 阅读全文
posted @ 2021-12-13 09:39 罗西的思考 阅读(1109) 评论(0) 推荐(1) 编辑
摘要:本系列介绍分布式优化器,分为三篇文章,分别是基石篇,DP/DDP/Horovod 之中数据并行的优化器,PyTorch 分布式优化器,按照深度递进。本文介绍PyTorch 分布式优化器和PipeDream之中的优化器,主要涉及模型并行(流水线并行)。 阅读全文
posted @ 2021-12-09 19:08 罗西的思考 阅读(2562) 评论(0) 推荐(0) 编辑
摘要:本系列介绍分布式优化器,分为三篇文章,分别是基石篇,DP/DDP/Horovod 之中数据并行的优化器,PyTorch 分布式优化器,按照深度递进。本文介绍数据并行DP/DDP/Horovod 之中的优化器。 阅读全文
posted @ 2021-12-08 19:36 罗西的思考 阅读(1529) 评论(0) 推荐(2) 编辑
摘要:我们接下来通过几篇文章来看看分布式优化器。本系列分为三篇文章,分别是基石篇,DP/DDP/Horovod 之中数据并行的优化器,PyTorch 分布式优化器,按照深度递进。 本文是基石篇,通过本文,大家可以了解到模型的构造,优化器的基本原理,两者之间的交互,如何优化更新模型等等,这为后面的逐级分析打下了一个基础。 阅读全文
posted @ 2021-12-07 19:26 罗西的思考 阅读(1439) 评论(1) 推荐(0) 编辑
摘要:上文我们介绍了引擎如何获得后向计算图的依赖,本文我们就接着看看引擎如何依据这些依赖进行后向传播。 阅读全文
posted @ 2021-12-06 18:12 罗西的思考 阅读(1133) 评论(0) 推荐(1) 编辑
摘要:上文已经分析了如何启动/接受反向传播,如何进入分布式autograd 引擎,本文和下文就看看如何分布式引擎如何运作。通过本文的学习,读者可以对 dist.autograd 引擎基本静态架构和总体执行逻辑有所了解。 阅读全文
posted @ 2021-12-04 10:11 罗西的思考 阅读(798) 评论(0) 推荐(1) 编辑
摘要:上文我们看到了AutogradMetadata,DistAutogradContainer 和 DistAutogradContext 等一系列基础类。我们知道了分布式autograd如何基于RPC进行传递,如何在节点之间交互,节点如何区分维护这些Session。本文继续分析,主要目的是看看反向传播如何切入到引擎之中。 阅读全文
posted @ 2021-12-03 08:59 罗西的思考 阅读(647) 评论(0) 推荐(1) 编辑
摘要:我们已经知道 dist.autograd 如何发送和接受消息,本文再来看看如何其他支撑部分,就是如何把发送接受两个动作协调起来,如何确定每个发送/接受节点,如何确定每一个消息交互Session。 阅读全文
posted @ 2021-12-01 21:08 罗西的思考 阅读(700) 评论(0) 推荐(0) 编辑
摘要:前文我们给出了分布式autograd的设计思路,本文开始,我们进行具体源码分析。因为无论是前向传播还是反向传播,都需要依赖 RPC 来完成,所以我们先看看封装于 RPC 之上的一些基本功能,比如初始化,代理(RPC 相关功能都是基于代理完成),消息接受,发送等等。 阅读全文
posted @ 2021-11-30 19:50 罗西的思考 阅读(1154) 评论(0) 推荐(2) 编辑
摘要:本文以几篇PyTorch官方文档为基础来了解分布式 autograd 的设计和内部结构,在翻译时并没有逐字翻译,其中加入了自己的部分理解。分布式 autograd 后续文章的分析也会基于本文进行。 阅读全文
posted @ 2021-11-29 20:18 罗西的思考 阅读(1776) 评论(0) 推荐(2) 编辑
摘要:上文我们已经对Reduer的前向传播进行了分析,本文就接着来看看如何进行反向传播。 阅读全文
posted @ 2021-11-28 10:40 罗西的思考 阅读(2164) 评论(1) 推荐(1) 编辑
摘要:前文已经对Reducer如何构建和几个重要场景做了介绍,本文就来分析 Reducer 如何实现前向传播。 阅读全文
posted @ 2021-11-27 10:17 罗西的思考 阅读(3960) 评论(2) 推荐(0) 编辑
摘要:因为前文已经围绕Reducer相关的各种成员变量做了相关分析,所以本文和下文开始做动态逻辑分析,目的是:把前面几篇文章串联起来。 阅读全文
posted @ 2021-11-25 08:54 罗西的思考 阅读(3092) 评论(4) 推荐(2) 编辑
摘要:通过上文分析,我们已经知道了 DDP 的基本架构和如何初始化,本文就看看其核心 Reducer 的静态架构。 阅读全文
posted @ 2021-11-23 20:21 罗西的思考 阅读(2459) 评论(0) 推荐(0) 编辑
摘要:前文我们对DDP的一些支撑模块已经做了介绍,这为本文做了必要的铺垫,本文就开始介绍Python世界代码和C++世界的初始化部分。下文介绍C++世界的核心代码。 阅读全文
posted @ 2021-11-22 20:10 罗西的思考 阅读(4265) 评论(1) 推荐(1) 编辑

上一页 1 2 3 4 5 6 7 8 ··· 10 下一页
点击右上角即可分享
微信分享提示