学习地址:https://www.bilibili.com/video/BV1ez4y1X7g2?spm_id_from=333.999.0.0

COCO Evaluation Result

怎样才算检测正确?

常见指标解释:

TP(True Positive): loU>0.5的检测框数量(同一Ground Truth只计算一次)
FP(False Positive): loU<=0.5的检测框(或者是检测到同一个GT的多余检测框的数量)
FN(False Negative): 没有检测到的GT的数量(漏检的)
Precision: TP/(TP + FP)模型预测的所有目标中,预测正确的比例 (查准率)
【假设一张有多个目标的图中只检测出一个目标,此时,TP=1,FP=0,Precision = 1,显然单用Precision是不能够正确评判模型好坏】

Recall: TP/(TP + FN)所有真实目标中,模型预测正确的目标比例 (查全率)
【同样如果TP=1,FP=100,FN=0Precision = 1,显然单用Recall是不能够正确评判模型好坏】

-->因此结合两个指标评判目标检测准确率

AP: P-R曲线下面积
P-R曲线: Precision-Recall曲线

mAP, mean Average Precision,即各类别AP的平均值(每一个类别有一个AP,多个目标取平均值)

存在:pascal voc和coco两个评价指标AP的值差别较大的问题,待解决

COCO数据集评价指标的含义



1、Average Precision(AP): 这里的AP就是上述的mAP
2、AP Across Scales: small、medium、large小中大目标的AP,能够得到模型对不同尺度物体的检测效果
3、Average Recall(AR): 每张图片最多提供 max = maxDets个目标检测框,此时对应的查全率
4、AR Across Scales: 对应不同目标尺度时,查全率(AR)的值

一般要看Iou metric : bbox中
1、第2行:Pascal Voc数据集的评价指标 AP的值
2、第1行:COCO数据集的评价指标 AP的值
存在问题:pascal voc和coco两个评价指标AP的值差别较大

posted on 2022-01-08 14:31  低八度  阅读(488)  评论(0编辑  收藏  举报