分类性能度量指标

正确率(precision),TP/(TP+FP),给出的是预测为正例的样本中的真正正例的比例。

召回率(recall),TP/(TP+FN),给出的是预测为正例中的真实正例占所有真实正例的比例。

F-度量值(F-Score),组合precision和recall为一个单独的得分,被定义为精确度和召回率的调和平均数(2*precision*recall)/(precision+recall)。

很难同时使两者达到最好。如果将任何样本都判为正例,那么召回率达到百分之百而此时的正确率很低。正确率很高时,往往会造成一些伪反例较多,从而降低召回率。

另一个用于度量分类中的分均衡性的工具是ROC曲线。在上图ROC曲线中,给出了两条线,一条虚线一条实线。图中的横轴是伪正例的比例(假阳率=FP/(FP+TN)),而纵轴是真正例的比例(真阳率=TP/(TP+FN))。ROC曲线给出的是当阈值变化时假阳率和真阳率的变化情况。左下角的点对应将所有的样本判断为反例的情况,右上角的点对应的是将所有样例判断为正例的情况。虚线给出的是随机猜测的结果曲线。

ROC曲线不但可以用于比较分类器,还可以基于成本效益分析来作出决策。由于在不同的阈值下,不同的分类器的表现情况可能各不相同,因此以某种方式将它们组合起来或许会更有意义。如果只是简单的观察分类器的错误率,那么我们就难以得到这种更深入的洞察效果了。

理想情况下,最佳的分类器应该尽可能处于左上角。对不同ROC曲线进行比较的一个指标是曲线下的面积(AUC)。AUC给出的是分类器的平均性能值,当然它不能完全替代对整条曲线的观察。一个完美分类器的AUC为1,而随机猜测的AUC则为0.5。ROC曲线的绘制,根据分类器预测分数从大到小对样本排序,然后设置阈值逐渐随分数从大到小变化,计算不同阈值下对应的假阳率和真阳率,进而得到整个ROC曲线。

 

混淆矩阵:当处理3个或更多的标签的分类任务时,基于模型错误类型细分模型的错误是有信息量的。一个混淆矩阵是一个表,其中每个cells[i,j]表示正确的标签i被预测为标签j的次数。因此,对角线项目表示正确预测的标签,非对角线项目表示错误预测。

posted @   ~宁静致远~  阅读(569)  评论(0编辑  收藏  举报
编辑推荐:
· Linux系列:如何用 C#调用 C方法造成内存泄露
· AI与.NET技术实操系列(二):开始使用ML.NET
· 记一次.NET内存居高不下排查解决与启示
· 探究高空视频全景AR技术的实现原理
· 理解Rust引用及其生命周期标识(上)
阅读排行:
· DeepSeek 开源周回顾「GitHub 热点速览」
· 物流快递公司核心技术能力-地址解析分单基础技术分享
· .NET 10首个预览版发布:重大改进与新特性概览!
· AI与.NET技术实操系列(二):开始使用ML.NET
· 单线程的Redis速度为什么快?
点击右上角即可分享
微信分享提示