摘要: 这个函数的作用是反向传播计算梯度的。 这个只有标量才能直接使用 backward(),如果使用自定义的函数,得到的不是标量,则backward()时需要传入 grad_variable 参数。 torch.tensor是autograd包的基础类,如果你设置tensor的requires_grads 阅读全文
posted @ 2022-01-12 11:37 小筱痕 阅读(2165) 评论(0) 推荐(0) 编辑
摘要: 不启用 Batch Normalization 和 Dropout。 如果模型中有BN层(Batch Normalization)和Dropout,在测试时添加model.eval()。model.eval()是保证BN层能够用全部训练数据的均值和方差,即测试过程中要保证BN层的均值和方差不变。对于 阅读全文
posted @ 2022-01-12 11:18 小筱痕 阅读(740) 评论(0) 推荐(0) 编辑