会员
周边
众包
新闻
博问
闪存
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
好学近乎知,力行近乎仁,知耻近乎勇。
首页
新随笔
联系
订阅
管理
08 2021 档案
关于pytorch下GAN loss的backward和step等注意事项
摘要:首先不妨假设最简单的一种情况: 假设$G$和$D$的损失函数: 那么计算梯度有: 第一种正确的方式: import torch from torch import nn def set_requires_grad(net: nn.Module, mode=True): for p in net.pa
阅读全文
posted @
2021-08-09 03:17
Dilthey
阅读(1462)
评论(0)
推荐(0)
编辑
公告