加快pytorch训练速度

加快Pytorch训练速度

num_workers

  • num_worker=0表示只用主进程读取数据, num_worker=4/8表明使用额外的4/8子进程读取数据
  • 一般来说,增大num_worker可以增加GPU的利用率,从而加快训练的速度。
  • 但是有时候即使增大num_worker也无法提高GPU利用率,这是因为训练的瓶颈在IO

多个小文件->单个大文件

posted @ 2020-05-29 15:30  happy_fan  阅读(740)  评论(0编辑  收藏  举报