摘要: 第一种方式:nn.DataParallel方式 # main.py import torch import torch.distributed as dist gpus = [0, 1, 2, 3]#指定有哪些gpu torch.cuda.set_device('cuda:{}'.format(gp 阅读全文
posted @ 2022-09-11 16:52 zhaojianhui 阅读(476) 评论(0) 推荐(0) 编辑