一緒に手をつないで遠くへ〜✨|

paramotor

园龄:3年1个月粉丝:1关注:1

管理和优化显存 深度学习 训练

训练的时候 常常会 爆显存

数据集 -- 大

模型复杂 -- 计算繁琐 参数多

优化器 -- 状态信息存储

 

1、监视 

  TensorBoard 或PyTorch Lightning

2、分批处理数据

  Data Loader 数据集分批加载到内存,降低每轮训练数据的显存占用

3、梯度累积

  几个批次的数据上累积梯度,然后一次性更新模型参数,减少每轮训练的梯度显存占用。

4、优化模型结构和参数

  减少模型的结构复杂度,减少参数数量,降低模型的显存占用。

  还可优化模型的其他参数,如学习率、动量等,减少每轮训练的优化器状态的显存占用。

本文作者:paramotor

本文链接:https://www.cnblogs.com/paramotor/p/17876396.html

版权声明:本作品采用知识共享署名-非商业性使用-禁止演绎 2.5 中国大陆许可协议进行许可。

posted @   paramotor  阅读(132)  评论(0编辑  收藏  举报
点击右上角即可分享
微信分享提示
评论
收藏
关注
推荐
深色
回顶
收起
  1. 1 Ahh Mantap Tik Tok Tarik Sis De Yang Gatal Bukan Pho (Remix) DJ Desa
Ahh Mantap Tik Tok Tarik Sis De Yang Gatal Bukan Pho (Remix) - DJ Desa
00:00 / 00:00
An audio error has occurred.