YOLOv5一些相关参数(边学边补)
1,conf_thres : 想让YOLO只标记可能性高的地方(只有超过这个值才能显示结果),
2,iou_thres : 简单的说根据具体情况进行对参数的设置
a,越大,对于同一物品的不同预测结果 当成 对多个物品的多个预测结果,导致一个物品出现了多个预测结果
b,越小,对于多个物品的不同预测结果 当成 对同一物品的不同预测结果,导致多个物品只出现一个预测结果
3,P:Precision,精确率 R:Recall,召回率
4,F1:F-Measure,F值,P与R的调和平均
5,PR图:横坐标是R值,纵坐标是P指,曲线表示当召回率为R时,精确率P的大小
6,AP:以某种方式计算AP值来表示PR图的面积
7,mAP:每个类的AP值的平均数,用于表示多类标签预测的性能,如AP一样,mAP越高,性能越好
8,weigths:指的是训练好的网络模型,用来初始化网络权重
9,cfg:网络结构
10,data:训练数据路径
11,hyp:训练网络的一些超参数设置
12,epochs:训练迭代次数
13,batch-size:每次给定神经网络的图片数目
14,imgsz:训练图片尺寸
15:rect:是否采用矩形训练
16:resume:指定你之前训练的网络模型,想继续训练这个模型
17:nosave:只保留最终网络模型
18:noautoanchor:是否采用锚点
19:evolve:是否寻找最优参数
20:bucket:没用了
21:cache:是否对图片进行缓存,加快训练
22:image-weights:测试过程中,图像的那些测试地方不太好,对这些不太好的地方加权重
23:device:训练网络的设备cpu还是gpu
24:multi-scale:图片尺度变换
25:single-cls:训练数据集是单类别还是多类别
26:adam:是否采用adam
27:sync-bn:分布式训练
28:workers:多线程训练
29:projcet:训练结果保存路径
30:name:训练结果保存文件名
31:exist-ok:覆盖掉上一次结果,不新建训练结果文件
32:quad:在dataloader时采用什么样的方式读取我们的数据
33:linear-lr:按照线性的方式去调整学习率
34:label-smoothing:对标签平滑,防止过拟和
35:patience:当early stop被激活(如发现loss相比上一个epoch训练没有下降),则经过patience个epoch后停止训练
36:freeze:冻结哪些层,不去更新训练这几层的参数
37:save-period:训练多少次保存一次网络模型
38:local-rank:分布式训练
2,iou_thres : 简单的说根据具体情况进行对参数的设置
a,越大,对于同一物品的不同预测结果 当成 对多个物品的多个预测结果,导致一个物品出现了多个预测结果
b,越小,对于多个物品的不同预测结果 当成 对同一物品的不同预测结果,导致多个物品只出现一个预测结果
3,P:Precision,精确率 R:Recall,召回率
4,F1:F-Measure,F值,P与R的调和平均
5,PR图:横坐标是R值,纵坐标是P指,曲线表示当召回率为R时,精确率P的大小
6,AP:以某种方式计算AP值来表示PR图的面积
7,mAP:每个类的AP值的平均数,用于表示多类标签预测的性能,如AP一样,mAP越高,性能越好
8,weigths:指的是训练好的网络模型,用来初始化网络权重
9,cfg:网络结构
10,data:训练数据路径
11,hyp:训练网络的一些超参数设置
12,epochs:训练迭代次数
13,batch-size:每次给定神经网络的图片数目
14,imgsz:训练图片尺寸
15:rect:是否采用矩形训练
16:resume:指定你之前训练的网络模型,想继续训练这个模型
17:nosave:只保留最终网络模型
18:noautoanchor:是否采用锚点
19:evolve:是否寻找最优参数
20:bucket:没用了
21:cache:是否对图片进行缓存,加快训练
22:image-weights:测试过程中,图像的那些测试地方不太好,对这些不太好的地方加权重
23:device:训练网络的设备cpu还是gpu
24:multi-scale:图片尺度变换
25:single-cls:训练数据集是单类别还是多类别
26:adam:是否采用adam
27:sync-bn:分布式训练
28:workers:多线程训练
29:projcet:训练结果保存路径
30:name:训练结果保存文件名
31:exist-ok:覆盖掉上一次结果,不新建训练结果文件
32:quad:在dataloader时采用什么样的方式读取我们的数据
33:linear-lr:按照线性的方式去调整学习率
34:label-smoothing:对标签平滑,防止过拟和
35:patience:当early stop被激活(如发现loss相比上一个epoch训练没有下降),则经过patience个epoch后停止训练
36:freeze:冻结哪些层,不去更新训练这几层的参数
37:save-period:训练多少次保存一次网络模型
38:local-rank:分布式训练
posted on 2022-05-16 15:25 只想做加法(ylc) 阅读(1470) 评论(0) 编辑 收藏 举报