ROC曲线与AUC计算总结

roc曲线

1、roc曲线:接收者操作特征(receiveroperating characteristic),roc曲线上每个点反映着对同一信号刺激的感受性。

横轴:负正类率(false postive rate, FPR),特异度,划分实例中所有负例占所有负例的比例;(1-Specificity)
纵轴:真正类率(true postive rate, TPR),灵敏度,Sensitivity(正类覆盖率)

2、针对一个二分类问题,将实例分成正类(postive)或者负类(negative)。但是实际中分类时,会出现四种情况.

(1)若一个实例是正类并且被预测为正类,即为真正类(True Postive ,TP)
(2)若一个实例是正类,但是被预测成为负类,即为假负类(False Negative, FN)
(3)若一个实例是负类,但是被预测成为正类,即为假正类(False Postive ,FP)
(4)若一个实例是负类,但是被预测成为负类,即为真负类(True Negative ,TN)

混淆矩阵如下,1代表正类,0代表负类:

predict: 0 predict: 1
label: 0 TN FP
label: 1 FN TP
由上表可得出横,纵轴的计算公式:
(1)真正类率(True Postive Rate)TPR: TP/(TP+FN),代表分类器预测的正类中实际正实例占所有正实例的比例。Sensitivity
(2)负正类率(False Postive Rate)FPR: FP/(FP+TN),代表分类器预测的正类中实际负实例占所有负实例的比例。1-Specificity
(3)真负类率(True Negative Rate)TNR: TN/(FP+TN),代表分类器预测的负类中实际负实例占所有负实例的比例,TNR=1-FPR。Specificity
假设采用逻辑回归分类器,其给出针对每个实例为正类的概率,那么通过设定一个阈值如0.6,概率大于等于0.6的为正类,小于0.6的为负类。对应的就可以算出一组(FPR,TPR),在平面中得到对应坐标点。随着阈值的逐渐减小,越来越多的实例被划分为正类,但是这些正类中同样也掺杂着真正的负实例,即TPR和FPR会同时增大。阈值最大时,对应坐标点为(0,0),阈值最小时,对应坐标点(1,1)。
如下面这幅图,(a)图中实线为ROC曲线,线上每个点对应一个阈值。
横轴FPR:1-TNR,1-Specificity,FPR越大,预测正类中实际负类越多。
纵轴TPR:Sensitivity(正类覆盖率),TPR越大,预测正类中实际正类越多。

理想目标:TPR=1,FPR=0,即图中(0,1)点,故ROC曲线越靠拢(0,1)点,越偏离45度对角线越好,Sensitivity、Specificity越大效果越好。

如何画roc曲线

假设已经得出一系列样本被划分为正类的概率,然后按照从大到小排序,下图是一个示例,图中共有20个测试样本,“Class”一栏表示每个测试样本真正的标签(p表示正样本,n表示负样本),“Score”表示每个测试样本属于正样本的概率。

首先统计出,一共含有10个正样本、10个负样本。 首先,以(0,0)为初始起点。

接下来,我们从高到低,依次将“Score”值作为阈值threshold,当测试样本属于正样本的概率大于或等于这个threshold时,我们认为它为正样本,否则为负样本。从第一个样本开始(标签为positive正类),设该样本的Score值为阈值,则该样本之后的样本(还剩余9个positive、10个negative)判为负样本,计算得TPR=1/10=0.1,FPR=0/10=0.0,即ROC曲线(0, 0.1)点;再选择第二个样本点(标签为positive正类)的Score作为阈值,大于等于该阈值的样本(2个positive)判为正样本,小于该阈值(还剩余8个positive、10个negative)的判为负样本,计算TPR=2/10=0.2,FRP=0/10=0.0,可在ROC图画出该点。
这样一来,我们一共得到了20组FPR和TPR的值,将它们画在ROC曲线的结果如下图:

我们可以大致推断出,当新样本真实分类为Positive时候,阶梯数值向上一个单位((1/真实正样本总数));当新样本真实分类为negative时候,阶梯水平向右移动一个单位(1/真实负样本总数)。

两种ROC曲线画法:

上面是将样本的预测Score从大到小排列,从第一个Socre作为阈值,依次遍历所有Score。先得出全判负类时TPR,FPR的值,最后得出全判正类的TPR,FPR的值,画ROC曲线对应的先画出(0,0)点,最后再画出(1,1)点;
另外一种方法是,将样本的预测Score从小到大排列,从第一个Socre作为阈值,依次遍历所有Score。先得出全判正类时TPR,FPR的值,最后得出全判负类的TPR,FPR的值,画ROC曲线对应的先画出(1,1)点,最后再画出(0,0)点。

AUC(Area under Curve):Roc曲线下的面积,介于0.1和1之间。

AUC作为数值可以直观的评价分类器的好坏,值越大越好。
首先AUC值是一个概率值,当你随机挑选一个正样本以及负样本,当前的分类算法根据计算得到的Score值将这个正样本排在负样本前面的概率就是AUC值,AUC值越大,当前分类算法越有可能将正样本排在负样本前面,从而能够更好地分类。

计算代码

直接调库sklearn : from sklearn.metrics import roc_auc_score
以刚才图片中的数值为例子:

from sklearn.metrics import roc_auc_score
import numpy as np 

label = np.array([1, 1, 0, 1, 1, 1, 0, 0, 1, 0, 1, 0, 1, 0, 0, 0, 1, 0, 1, 0])
pred = np.array([0.9, 0.8, 0.7, 0.6, 0.55, 0.54, 0.53, 0.52, 0.51, 0.505, 0.4, 0.39, 0.38, 0.37, 0.36, 0.35, 0.34, 0.33, 0.30, 0.1])
score = roc_auc_score(label, pred)
print(score)


改变类型为列表:

改变类型为pytorch张量:

参考

https://blog.csdn.net/taotiezhengfeng/article/details/80456110

posted @ 2021-01-07 11:04  爱吃砂糖橘的白龙  阅读(798)  评论(0编辑  收藏  举报