摘要: 概述 本篇介绍多计算节点上的pytorch分布式训练。从环境配置到运行demo的所有步骤,step by step。没有理论原理,理论原理可以参考 "这里" . 基础环境 多台linux计算节点,通过网络连接,不同主机之间可以相互ping通。网速越快越好,如果通信速度比较慢,就不用怎么考虑分布式训练 阅读全文
posted @ 2019-09-30 15:42 walter_xh 阅读(3034) 评论(0) 推荐(0) 编辑