会员
周边
众包
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
微信公众号: 共鸣圈
该博客主要是一个备忘录,为记录工作学习的心得体会。不全是原创,不是原创时我会在文章开头加“转载”两个字。
博客园
首页
新随笔
联系
订阅
管理
2020年9月1日
PyTorch 的 backward 为什么有一个 grad_variables 参数
摘要: 假设 x 经过一番计算得到 y,那么 y.backward(w) 求的不是 y 对 x 的导数,而是 l = torch.sum(y*w) 对 x 的导数。w 可以视为 y 的各分量的权重,也可以视为遥远的损失函数 l 对 y 的偏导数(这正是函数说明文档的含义)。特别地,若 y 为标量,w 取默认
阅读全文
posted @ 2020-09-01 15:53 微信公众号--共鸣圈
阅读(240)
评论(0)
推荐(0)
编辑