pytorch的优化器optimizer使用方法

 

使用 torch.optim 创建一个optim 对象,这个对象会一直保持当前状态或根据计算的梯度更新参数。

也是模型搭建模块梯度走向,是模型迭代至关重要一部分。因此,本文为每个模块自由设计学习率等参数问题进行探讨。

本文首先给出探讨问题及结论,然后分别解释探讨问题,具体如下:

 

一、探究问题:

①分模块设计不同参数

②优化器如何自由添加自己参数与保留重要信息

③整体模型如何设计

结果:若设置模块,则按照模块参数更新此模块,若未设置模块,则按照总体参数更新。

二、定义介绍

基本定义:torch.optim是一个实现了各种优化算法的库。大部分常用的方法得到支持,并且接口具备足够的通用性,使得未来能够集成更加复杂的方法。

构建优化器:构建优化器可选择optim自定义的方法,一般也是调用其中的,如下可构建:

optimizer = optim.SGD(model.parameters(), lr = 0.01, momentum=0.9)

optimizer = optim.Adam([var1, var2], lr = 0.0001)   # [var1, var2] 可理解为优化的变量 lr = 0.0001为梯度下降的学习率,其它未设置表示默认

三、模块自由设计参数

深度理解:若你构建了网络模型model,若你想给不同模块设置不同学习率,将可以采取以下方法:

optimizer = optim.SGD([ {'params': model.base.parameters()}, {'params': model.classifier.parameters(), 'lr': 1e-3} ], lr=1e-2, momentum=0.9)

以上optim.SGD()中的列表就是构建每个参数的学习率,若没有设置,则默认使用最外如:model.base.parameters()参数使用lr=1e-2  momentum=0.9

 

四、自由添加或更改参数

添加个人需要的变量:

若你想添加个人变量保存optimizer中,可使用:

for b in optimizer.param_groups:
    b.setdefault('init_lr', 0.02)

此时类似optimizer = optim.SGD([ {'params': model.base.parameters()}, {'params': model.classifier.parameters(), 'lr': 1e-3} ],init_lr=0.02, lr=1e-2, momentum=0.9)

若你想更改学习率,可使用:

for b in optimizer.param_groups:
    b.setdefault('init_lr', 0.00005)

此时类似将optimizer = optim.SGD([ model.base.parameters(), lr=0.02, momentum=0.9) 变成
optimizer = optim.SGD([model.base.parameters(), lr=0.00005, momentum=0.9)

注:可理解optimezer已经保存了模型model需要使用的学习率参数。

 

五、优化器查看方法

查看优化器参数:

optimizer.param_groups[0]: 长度为6的字典,包括[‘amsgrad’, ‘params’, ‘lr’, ‘betas’, ‘weight_decay’, ‘eps’]这6个参数;

optimizer.param_groups[1]: 好像是表示优化器的状态的一个字典;


六、模型使用优化器方法

模型训练优化器一般方法使用:

大多数optimizer所支持的简化版本。一旦梯度被如backward()之类的函数计算好后,我们就可以调用这个函数

for input, target in dataset:

  optimizer.zero_grad()

  output = model(input)

  loss = loss_fn(output, target)

  loss.backward()

  optimizer.step()

 

深入用法:

optimizer.step(closure)

一些优化算法例如Conjugate Gradient和LBFGS需要重复多次计算函数,因此你需要传入一个闭包去允许它们重新计算你的模型。这个闭包应当清空梯度, 计算损失,然后返回。

 

for input, target in dataset:

  def closure():

    optimizer.zero_grad()

    output = model(input)

    loss = loss_fn(output, target)

    loss.backward()

  return loss optimizer.step(closure)

 

七 、模型设置参数方法

 

2022年02月28日新增模型自由设置参数函数代码

import torch.nn as nn
import torch
class module(nn.Module):
    def __init__(self):
        super(module, self).__init__()
        self.features = nn.Conv2d(in_channels=3, out_channels=64, stride=1, kernel_size=3, padding=1,bias=False)
        self.classifiter = nn.Conv2d(in_channels=64, out_channels=128, stride=1, kernel_size=3, padding=1,bias=True)

        self.relu = nn.ReLU()
    def forward(self, x):

        x = self.features(x)
        x = self.classifiter(x)
        return self.relu(x)

if __name__ == '__main__':

    net=module()
    optimizer = torch.optim.SGD([{'params': net.features.weight, 'lr':  0.1},
                                 # {'params': net.features.bias, 'lr':  0.3},
                                 {'params': net.classifiter.weight},
                                 {'params': net.classifiter.bias,'lr':0.9}
                                 ],          lr=0.5)

    print(optimizer)

 

 

 

 

2022年02月28日新增模型不同模块的学习相关参数设定代码,如学习率lr

def sgd_optimizer(cfg, resrep_config:ResRepConfig, model, no_l2_keywords, use_nesterov, keyword_to_lr_mult):
    params = []
    for key, value in model.named_parameters():
        if not value.requires_grad:
            continue
        lr = cfg.base_lr
        weight_decay = cfg.weight_decay
        if "bias" in key or "bn" in key or "BN" in key:
            weight_decay = cfg.weight_decay_bias
            print('set weight_decay_bias={} for {}'.format(weight_decay, key))
        for kw in no_l2_keywords:
            if kw in key:
                weight_decay = 0
                print('NOTICE! weight decay = 0 for ', key, 'because {} in {}'.format(kw, key))
                break
        if 'bias' in key:
            apply_lr = 2 * lr
        else:
            apply_lr = lr
        if keyword_to_lr_mult is not None:
            for keyword, mult in keyword_to_lr_mult.items():
                if keyword in key:
                    apply_lr *= mult
                    print('multiply lr of {} by {}'.format(key, mult))
                    break
        if 'compactor' in key:
            use_momentum = resrep_config.compactor_momentum
            print('momentum {} for {}'.format(use_momentum, key))
        else:
            use_momentum = cfg.momentum
        params += [{"params": [value], "lr": apply_lr, "weight_decay": weight_decay, "momentum": use_momentum}]  # 每一层使用不同的参数
    optimizer = torch.optim.SGD(params, lr, momentum=cfg.momentum, nesterov=use_nesterov)
    return optimizer

 

posted @ 2021-05-21 17:14  tangjunjun  阅读(4795)  评论(0编辑  收藏  举报
https://rpc.cnblogs.com/metaweblog/tangjunjun