会员
周边
捐助
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
点此进入CSDN
你的浏览器不支持播放哦!!nuttertools 您的浏览器不支持该播放!
高颜值的殺生丸
博主擅长python和c++,从事人工智能领域自然语言处理和图像识别方面的工作,欢迎大家来讨论交流
博客园
首页
联系
管理
2019年8月27日
PyTorch中在反向传播前为什么要手动将梯度清零?
摘要: 对于torch中训练时,反向传播前将梯度手动清零的理解 简单的理由是因为PyTorch默认会对梯度进行累加。至于为什么PyTorch有这样的特点,在网上找到的解释是说由于PyTorch的动态图和autograd机制使得其非常灵活,这也意味着你可以得到对一个张量的梯度,然后再次用该梯度进行计算,然后又
阅读全文
posted @ 2019-08-27 09:00 高颜值的殺生丸
阅读(987)
评论(0)
推荐(0)
编辑
作者信息
昵称:
刘新宇
园龄:4年6个月
粉丝:1209
QQ:522414928