会员
周边
捐助
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
爽歪歪666
不以物喜,不以己悲,努力才是永恒的主题。
博客园
首页
博问
闪存
新随笔
订阅
管理
2019年12月31日
调整学习率-torch.optim.lr_scheduler.MultiStepLR()方法
摘要: optimizerG = optim.Adam(netG.parameters(), lr=opt.lr_g, betas=(opt.beta1, 0.999)) torch.optim.lr_scheduler.MultiStepLR(optimizer=optimizerG,milestones
阅读全文
posted @ 2019-12-31 21:21 爽歪歪666
阅读(10459)
评论(0)
推荐(1)
编辑