pytorch中的 requires_grad和volatile

https://blog.csdn.net/u012436149/article/details/66971822

 

简单总结其用途

(1)requires_grad=Fasle时不需要更新梯度, 适用于冻结某些层的梯度;

 (2)volatile=True相当于requires_grad=False,适用于推断阶段,不需要反向传播。这个现在已经取消了,使用with torch.no_grad()来替代

 

posted @   牧马人夏峥  阅读(7884)  评论(0编辑  收藏  举报
编辑推荐:
· 10年+ .NET Coder 心语,封装的思维:从隐藏、稳定开始理解其本质意义
· .NET Core 中如何实现缓存的预热?
· 从 HTTP 原因短语缺失研究 HTTP/2 和 HTTP/3 的设计差异
· AI与.NET技术实操系列:向量存储与相似性搜索在 .NET 中的实现
· 基于Microsoft.Extensions.AI核心库实现RAG应用
阅读排行:
· 10年+ .NET Coder 心语 ── 封装的思维:从隐藏、稳定开始理解其本质意义
· 地球OL攻略 —— 某应届生求职总结
· 提示词工程——AI应用必不可少的技术
· Open-Sora 2.0 重磅开源!
· 周边上新:园子的第一款马克杯温暖上架
历史上的今天:
2015-06-25 Coursera台大机器学习课程笔记9 -- Logistic Regression
2015-06-25 Coursera台大机器学习课程笔记8 -- Linear Regression
2015-06-25 近两年跟踪速度较快的算法小结(转)
2015-06-25 Coursera台大机器学习课程笔记7 -- Noise and Error
点击右上角即可分享
微信分享提示