当前位置:   article > 正文

准确率(Accuracy)、召回率(Recall)、精确率(Precision)_准确率 召回率 精度

准确率 召回率 精度

一、TP、TN、FP、FN 的概念

TP: 预测正确的正类
TN:预测正确的负类
FP:预测错误的正类(就是把负类当正类)
FN:预测错误的负类(就是把正类当负类)


举个栗子:假如把人脸当作正类,非人脸当作负类

人脸(正类)非人脸(负类)
预测为人脸true positive(TP)
把人脸识别为人脸
false positive(FP)
把非人脸识别为人脸
预测为非人脸false negative (FN)
把非人脸识别为人脸
true negative (TN)
把非人脸识别为非人脸

二、准确率、精确率(精准率)、召回率、F1值

1. 准确率(accuracy)
即预测正确的数量(包括正确的正类和负类)占总数的比例
在这里插入图片描述

2. 精确率(precision)
查准率,正确预测为正类的数量占预测为正类的数量(注意包括了把负类当正类的情况)的比例。这个主要是从正类单方面考虑结果,兼顾了部分预测错误的,含有预测的准确性的意思(个人理解)
在这里插入图片描述

3. 召回率(recall)
查全率,就是正确预测为正类的数量占真正的正类总数量的比例,即在正类里面,我找回了多少正正类的意思
在这里插入图片描述

4. F1值
F1对Precision和Recall都进行了加权
在这里插入图片描述
把precision 和reacall 代入有:

在这里插入图片描述

三、ROC曲线、AUC值

1.ROC曲线。接收者操作特征曲线(receiver operating characteristic curve),是反映敏感性和特异性连续变量的综合指标,ROC曲线上每个点反映着对同一信号刺激的感受性。下图是ROC曲线例子
在这里插入图片描述

横坐标:1-Specificity,伪正类率(False positive rate,FPR,FPR=FP/(FP+TN)),预测为正但实际为负的样本占所有负例样本的比例;

纵坐标:Sensitivity,真正类率(True positive rate,TPR,TPR=TP/(TP+FN)),预测为正且实际为正的样本占所有正例样本的比例。即召回率

在一个二分类模型中,假设采用逻辑回归分类器,其给出针对每个实例为正类的概率,那么通过设定一个阈值如0.6,概率大于等于0.6的为正类,小于0.6的为负类。对应的就可以算出一组(FPR,TPR),在平面中得到对应坐标点。随着阈值的逐渐减小,越来越多的实例被划分为正类,但是这些正类中同样也掺杂着真正的负实例,即TPR和FPR会同时增大。阈值最大时,对应坐标点为(0,0),阈值最小时,对应坐标点(1,1)。

真正的理想情况,TPR应接近1,FPR接近0,即图中的(0,1)点。ROC曲线越靠拢(0,1)点,越偏离45度对角线越好。


2.AUC值。

AUC (Area Under Curve) 被定义为ROC曲线下的面积,显然这个面积的数值不会大于1。又由于ROC曲线一般都处于y=x这条直线的上方,所以AUC的取值范围一般在0.5和1之间。使用AUC值作为评价标准是因为很多时候ROC曲线并不能清晰的说明哪个分类器的效果更好,而作为一个数值,对应AUC更大的分类器效果更好。

从AUC判断分类器(预测模型)优劣的标准:

AUC = 1,是完美分类器,采用这个预测模型时,存在至少一个阈值能得出完美预测。绝大多数预测的场合,不存在完美分类器。

  • 0.5 < AUC < 1,优于随机猜测。这个分类器(模型)妥善设定阈值的话,能有预测价值。
  • AUC = 0.5,跟随机猜测一样(例:丢铜板),模型没有预测价值。
  • AUC < 0.5,比随机猜测还差;但只要总是反预测而行,就优于随机猜测。

一句话来说,AUC值越大的分类器,正确率越高。

参考原文

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/运维做开发/article/detail/978312
推荐阅读
相关标签
  

闽ICP备14008679号