pytorch,训练模型时内存占用不断上升

重点关注带有梯度的变量,特别是累积它们或收集它们的地方
我的问题是,在训练的时候收集logits时,忘记加上.detach(),导致梯度信息也跟着收集,然后内存占用不断上升甚至超过90G
加上.detach()后,就固定在44G不变了

posted @   kksk43  阅读(69)  评论(0编辑  收藏  举报
编辑推荐:
· SQL Server 2025 AI相关能力初探
· Linux系列:如何用 C#调用 C方法造成内存泄露
· AI与.NET技术实操系列(二):开始使用ML.NET
· 记一次.NET内存居高不下排查解决与启示
· 探究高空视频全景AR技术的实现原理
阅读排行:
· 阿里最新开源QwQ-32B,效果媲美deepseek-r1满血版,部署成本又又又降低了!
· SQL Server 2025 AI相关能力初探
· AI编程工具终极对决:字节Trae VS Cursor,谁才是开发者新宠?
· 开源Multi-agent AI智能体框架aevatar.ai,欢迎大家贡献代码
· Manus重磅发布:全球首款通用AI代理技术深度解析与实战指南
特效
黑夜
侧边栏隐藏
点击右上角即可分享
微信分享提示