评价指标
1 混淆矩阵(confusion matrix)
第一位T/F: 表示预测的对错
第二位P/N: 表示预测的结果
- 准确率Precision(查准率)是评估预测的准不准(看预测列)
- 召回率Recall(查全率)是评估找的全不全(看实际行)
2 交并比(IoU)
3 AP (Average Precison)
用一个简单的例子来演示平均精度(AP)的计算。 假设数据集中总共有5个苹果。 我们收集模型为苹果作的所有预测,并根据预测的置信水平(从最高到最低)对其进行排名。 第二列表示预测是否正确。 如果它与ground truth匹配并且IoU≥0.5,则是正确的。
- AP衡量的是学习出来的模型在每个类别上的好坏
- mAP衡量的是学出的模型在所有类别上的好坏。mAP就是取所有类别上AP的平均值。