YOLOv5多GPU训练
一、准备
安装yolov5依赖,要求Python>=3.8以及PyTorch>=1.7
git clone https://github.com/ultralytics/yolov5 # clone repo
cd yolov5
pip install -r requirements.txt
1
2
3
二、选择预训练模型
这里我们选择YOLOv5s,训练数据集我们用COCO。
三、单GPU训练
$ python train.py --batch-size 64 --data coco.yaml --weights yolov5s.pt --device 0
1
四、多GPU数据并行训练(不推荐)
$ python train.py --batch-size 64 --data coco.yaml --weights yolov5s.pt --device 0,1
1
这种方法相对于单GPU训练方法对于速度的提升有限。
五、多GPU分布式数据并行训练(推荐)
$ python -m torch.distributed.launch --nproc_per_node 2 train.py --batch-size 64 --data coco.yaml --weights yolov5s.pt
1
–nproc_per_node: 指定多少GPU要被使用。
–batch-size:这里是总的大小,多个GPU这个值将被均分,比如以上示例有2个GPU,那每个GPU batch-size为64/2=32。
指定多GPU:
$ python -m torch.distributed.launch --nproc_per_node 2 train.py --batch-size 64 --data coco.yaml --cfg yolov5s.yaml --weights '' --device 2,3
当单个GPU batch-size<=8时,可以使用以下方式来提高准确率
$ python -m torch.distributed.launch --nproc_per_node 2 train.py --batch-size 64 --data coco.yaml --cfg yolov5s.yaml --weights '' --sync-bn
多设备训练
# On master machine 0
$ python -m torch.distributed.launch --nproc_per_node G --nnodes N --node_rank 0 --master_addr "192.168.1.1" --master_port 1234 train.py --batch-size 64 --data coco.yaml --cfg yolov5s.yaml --weights ''
# On machine R
$ python -m torch.distributed.launch --nproc_per_node G --nnodes N --node_rank R --master_addr "192.168.1.1" --master_port 1234 train.py --batch-size 64 --data coco.yaml --cfg yolov5s.yaml --weights ''
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 全程不用写代码,我用AI程序员写了一个飞机大战
· DeepSeek 开源周回顾「GitHub 热点速览」
· MongoDB 8.0这个新功能碉堡了,比商业数据库还牛
· 记一次.NET内存居高不下排查解决与启示
· 白话解读 Dapr 1.15:你的「微服务管家」又秀新绝活了