pytorch中基于DistributedDataParallel实现多卡并行计算
摘要:
torch.nn.parallel.DistributedDataParallel提供了更为高效的单机多卡和多机多卡训练接口。 DistributedDataParallel并行库接口参数参考: https://www.cnblogs.com/jiangkejie/p/13256115.html 这 阅读全文
posted @ 2021-03-31 20:03 那抹阳光1994 阅读(3871) 评论(0) 推荐(0) 编辑