09 2022 档案

摘要:第一种方式:nn.DataParallel方式 # main.py import torch import torch.distributed as dist gpus = [0, 1, 2, 3]#指定有哪些gpu torch.cuda.set_device('cuda:{}'.format(gp 阅读全文
posted @ 2022-09-11 16:52 zhaojianhui 阅读(531) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示