model.named_parameters() ,model.parameters() ,model.state_dict().items()

1、model.named_parameters(),迭代打印model.named_parameters()将会打印每一次迭代元素的名字和param

for name, param in model.named_parameters():
    print(name,param.requires_grad)
    param.requires_grad=False

2、model.parameters(),迭代打印model.parameters()将会打印每一次迭代元素的param而不会打印名字,这是他和named_parameters的区别,两者都可以用来改变requires_grad的属性

for  param in model.parameters():
    print(param.requires_grad)
    param.requires_grad=False


3、model.state_dict().items() 每次迭代打印该选项的话,会打印所有的name和param,但是这里的所有的param都是requires_grad=False,没有办法改变requires_grad的属性,所以改变requires_grad的属性只能通过上面的两种方式。

for name, param in model.state_dict().items():
    print(name,param.requires_grad=True)

4、改变了requires_grad之后要修改optimizer的属性

        optimizer = optim.SGD(
            filter(lambda p: p.requires_grad, model.parameters()),   #只更新requires_grad=True的参数
            lr=cfg.TRAIN.LR,
            momentum=cfg.TRAIN.MOMENTUM,
            weight_decay=cfg.TRAIN.WD,
            nesterov=cfg.TRAIN.NESTEROV
        )

5、随机参数初始化

def init_weights(m):
    if isinstance(m, nn.Conv2d):
        torch.nn.init.xavier_uniform(m.weight.data)
model.apply(init_weights)

 

posted on 2020-08-21 22:42  cltt  阅读(754)  评论(0编辑  收藏  举报

导航