摘要: 假设 x 经过一番计算得到 y,那么 y.backward(w) 求的不是 y 对 x 的导数,而是 l = torch.sum(y*w) 对 x 的导数。w 可以视为 y 的各分量的权重,也可以视为遥远的损失函数 l 对 y 的偏导数(这正是函数说明文档的含义)。特别地,若 y 为标量,w 取默认 阅读全文
posted @ 2020-09-01 15:53 微信公众号--共鸣圈 阅读(240) 评论(0) 推荐(0) 编辑