摘要: PyTorch Data Parrallel数据并行 可选择:数据并行处理 本文将学习如何用 DataParallel 来使用多 GPU。 通过 PyTorch 使用多个 GPU 非常简单。可以将模型放在一个 GPU: device = torch.device("cuda:0") model.to 阅读全文
posted @ 2021-04-15 05:26 吴建明wujianming 阅读(221) 评论(0) 推荐(0) 编辑