爽歪歪666
不以物喜,不以己悲,努力才是永恒的主题。
摘要: optimizerG = optim.Adam(netG.parameters(), lr=opt.lr_g, betas=(opt.beta1, 0.999)) torch.optim.lr_scheduler.MultiStepLR(optimizer=optimizerG,milestones 阅读全文
posted @ 2019-12-31 21:21 爽歪歪666 阅读(10417) 评论(0) 推荐(1) 编辑