管理和优化显存 深度学习 训练
训练的时候 常常会 爆显存
数据集 -- 大
模型复杂 -- 计算繁琐 参数多
优化器 -- 状态信息存储
1、监视
TensorBoard 或PyTorch Lightning
2、分批处理数据
Data Loader 数据集分批加载到内存,降低每轮训练数据的显存占用
3、梯度累积
几个批次的数据上累积梯度,然后一次性更新模型参数,减少每轮训练的梯度显存占用。
4、优化模型结构和参数
减少模型的结构复杂度,减少参数数量,降低模型的显存占用。
还可优化模型的其他参数,如学习率、动量等,减少每轮训练的优化器状态的显存占用。
本文作者:paramotor
本文链接:https://www.cnblogs.com/paramotor/p/17876396.html
版权声明:本作品采用知识共享署名-非商业性使用-禁止演绎 2.5 中国大陆许可协议进行许可。
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步