摘要: 求参数w进行求解梯度有两种方式1. mse.backward() w.grad方式2. torch.autograd.grad(mse,[w]) #损失函数的梯度import torch import torch.nn.functional as F x=torch.ones(1) w=torch. 阅读全文
posted @ 2020-01-07 21:42 笔记记忆 阅读(1309) 评论(0) 推荐(0) 编辑