分类问题的评价指标

通常以关注的类为正类,其他类为负类,分类器在数据集上的预测或者正确或者不正确,我们有 $4$ 种情况:

    1)TP:True Positive, 把正类预测为正类;

    2)FP:False Positive,把负类预测为正类;

    3)TN:True Negative, 把负类预测为负类;

    4)FN:False Negative,把正类预测为负类

准确率:对于给定的数据,分类正确的样本数占总样本数的比例,即

$$accuracy = \frac{TP + TN}{TP + FP + TN + FN}$$

精确率:指在预测为正类的样本中真正类所占的比例,即

$$precision = \frac{TP}{TP + FP}$$

召回率:指在所有的正类中被预测为正类的比例,即

$$recall = \frac{TP}{TP + FN}$$

一般来说,$precision$ 就是检索为正类的条目中有多少是准确的,$Recall$ 就是所有准确的正类条目有多少被检索出来了。

$F_{1}-Score$: 精确率和召回率的调和平均,因为 $precision$ 和 $recall$ 是一对相互矛盾的量,当 $P$ 高时,$R$ 往往相对较低,当 $R$ 高时,

$P$ 往往相对较低,所以为了更好的评价分类器的性能,一般使用 $F_{1}-Score$ 作为评价标准来衡量分类器的综合性能。

$$\frac{1}{F_{1}} = \frac{1}{P} + \frac{1}{R} \\
\Rightarrow F_{1} = \frac{2 \cdot P \cdot R}{P + R}$$

 

posted @ 2020-10-29 12:32  _yanghh  阅读(335)  评论(0编辑  收藏  举报