jupyter notebook加载DDP预训练模型

最近遇到了一个问题,模型是用DistributedDataParallel一机多卡分布式训练的,然后作为一个jupyter notebook重度用户,我想用它来加载这个模型,搞点预测的例子可视化看看。

但是这会碰到一个问题,我们都知道通常加载预训练模型的方法是:

pretrained_dict = torch.load(pretrained_path, map_location=device)

model.load_state_dict(pretrained_dict,strict=True)

但是要想load_state_dict在DDP下训练的模型参数,首先初始化的模型model也需要在DDP下初始化,而我尝试了很久,发现没法在jupyter上初始化分布式环境:

torch.distributed.init_process_group(backend='nccl',
                                             init_method='env://')

然后想了一个解决办法,查看一下torch.load之后的pretrained_dict字典参数,其中有很多项内容,可以看下我保存模型的时候:

save_checkpoint({
                'epoch': epoch + 1,
                'arch': args.arch,
                'state_dict': model.state_dict(),
                'best_score': best_prec1,
                'optimizer': optimizer.state_dict(),
            }, is_best, work_dir = args.work_dir)

所以想要加载模型参数,首先就要取出'state_dict',然后看下model.state_dict()里的数据结构,发现参数变量名是套在module.model下的,而我们初始化的模型结构model, 其model.state_dict()参数变量是直接model.XX的,所以就把预训练模型的参数变量名过滤掉moduel,然后用初始化模型model去load_state_dict它就好了;

整体代码:

model = XXX #初始化模型结构
pretrained_path = 'XXX'
device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')
pretrained_dict = torch.load(pretrained_path, map_location=device)['state_dict']
pretrained_dict = {k[7:]:v for k,v in pretrained_dict.items()} #k[X:]看情况调整

model.load_state_dict(pretrained_dict,strict=True)

注意,load_state_dict里的参数strict还是需要True来严格对齐,如果False的话,预训练的模型参数就会不严格加载,导致后续性能出现偏差。

posted @ 2021-07-02 10:56  嶙羽  阅读(1039)  评论(0编辑  收藏  举报