爽歪歪666
不以物喜,不以己悲,努力才是永恒的主题。

optimizerG = optim.Adam(netG.parameters(), lr=opt.lr_g, betas=(opt.beta1, 0.999))
torch.optim.lr_scheduler.MultiStepLR(optimizer=optimizerG,milestones=[1600],gamma=opt.gamma)

torch.optim.lr_scheduler.MultiStepLR(optimizer, milestones, gamma=0.1, last_epoch=-1)
milestones为一个数组,如 [50,70]. gamma为倍数。如果learning rate开始为0.01 ,则当epoch为50时变为0.001,epoch 为70 时变为0.0001。
当last_epoch=-1,设定为初始lr。

参考博客:

https://blog.csdn.net/qq_41872630/article/details/86749972

posted on 2019-12-31 21:21  爽歪歪666  阅读(10459)  评论(0编辑  收藏  举报