F1 score 与 平均精度 mAP

F1 score 与 平均精度 mAP 可以衡量分类模型的性能。

首先先看精确率与召回率的概念。

精确率与召回率#

对于某方概率极低的逻辑回归(例如某种罕见病症的确诊),单纯的准度(是否能正确判断病人是否得病)并不足够。毕竟,若算法只会给出 negative 的判断也能拥有高准度。

真阳性(TP),假阳性(FP),真阴性(TN),假阴性(FN)。

精确率(precision),等于 正确预测的阳性(TP)/所有预测到的阳性(TP+FP),体现了模型对负样本的区分能力。精确率越高,说明模型对于预测为正类别的样本更加谨慎,很少将负类别的样本错误地预测为正类别。

召回率(recall),等于 正确预测的阳性(TP)/样本中所有真实的阳性(TP+FN),体现了模型对正样本的识别能力。召回率越高,说明模型对于实际为正类别的样本更加敏感,成功捕捉了更多正类别的样本。

精确率更应该叫做 “查准率”,指阳性预测的准度

召回率更应该叫做 “查全率”,指正确阳性预测的覆盖程度

F1 score#

F1 score 是精确率和召回率的一个加权平均。

F1=2×precision×recallprecision+recall

F1 score 越接近 1,模型性能越理想(同时达到最大的 Precision 和 Recall)。

平均精度 mAP#

平均精度(Average Precision,mAP),用于综合考虑模型在不同类别上的准确度和召回率。

对于分类问题,模型使用不同的 threshold 会得到不同的 precision 和 recall,画在 precision-recall 图表中可以得到一个曲线。最理想的情况下,这个曲线与 x y 轴会形成一个正方形,面积为 1。mAP 通过以下算式计算这个曲线与 x y 轴形成的面积:

AP=n(RnRn1)Pn

  • n 代表选择的第 n 个 threshold
  • Rn 代表第 n 个 threshold 下的 recall
  • Pn 代表第 n 个 threshold 下的 precision

其值越大(越接近 1),模型综合性能越好。

参考来源#

作者:chirp

出处:https://www.cnblogs.com/chirp/p/17963647

版权:本作品采用「署名-非商业性使用-相同方式共享 4.0 国际」许可协议进行许可。

posted @   倒地  阅读(187)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 终于写完轮子一部分:tcp代理 了,记录一下
· 震惊!C++程序真的从main开始吗?99%的程序员都答错了
· 别再用vector<bool>了!Google高级工程师:这可能是STL最大的设计失误
· 单元测试从入门到精通
· 【硬核科普】Trae如何「偷看」你的代码?零基础破解AI编程运行原理
more_horiz
keyboard_arrow_up dark_mode palette
选择主题
menu
点击右上角即可分享
微信分享提示