赞
踩
Recall(召回率) Precision(准确率) F-Measure E值 sensitivity(灵敏性) specificity(特异性)漏诊率 误诊率 ROC AUC
信息检索、分类、识别、翻译等领域两个最基本指标是
召回率(Recall Rate)=系统检索到的相关文件 / 系统所有相关的文件总数,衡量的是检索系统的查全率。
准确率(Precision Rate)=系统检索到的相关文件 / 系统所有检索到的文件总数,衡量的是检索系统的查准率。
图示表示如下:
P&R
一般来说,Precision就是检索出来的条目(比如:文档、网页等)有多少是准确的,Recall就是所有准确的条目有多少被检索出来了。
注意:准确率和召回率是互相影响的,理想情况下肯定是做到两者都高,但是一般情况下准确率高、召回率就低,召回率低、准确率高,当然如果两者都低,那是什么地方出问题了。一般情况,用不同的阀值,统计出一组不同阀值下的精确率和召回率,如下图:
这里写图片描述
如果是做搜索,那就是保证召回的情况下提升准确率;
如果做疾病监测、反垃圾,则是保准确率的条件下,提升召回。
综合评价指标(F-Measure)
P和R指标有时候会出现的矛盾的情况,这样就需要综合考虑他们,最常见的方法就是F-Measure(又称为F-Score)。
F-Measure是Precision和Recall加权调和平均
F =(a^2 +1)/(1/P + a^2/R)
= (a^2+1)*P*R / (a^2*P +R)
当参数a=1时,就是最常见的F1:
F1 = 2*P*R / (P+R)
很容易理解,F1综合了P和R的结果。
E值 是Precision和Recall加权平均值,b>1表示更重视P
E =1-(b^2 +1)/(1/P + b^2/R) =1- (b^2+1)*P*R / b^2*P +R)
不妨举这样一个例子:某池塘有1400条鲤鱼,300只虾,300只鳖。现在以捕鲤鱼为目的。撒一大网,逮着了700条鲤鱼,200只虾,100只鳖。那么,这些指标分别如下:
准确率 = 700 / (700 + 200 + 100) = 70%
召回率 = 700 / 1400 = 50%
F值 = 70% * 50% * 2 / (70% + 50%) = 58.3%
不妨看看如果把池子里的所有的鲤鱼、虾和鳖都一网打尽,这些指标又有何变化:
正确率 = 1400 / (1400 + 300 + 300) = 70%
召回率 = 1400 / 1400 = 100%
F值 = 70% * 100% * 2 / (70% + 100%) = 82.35%
由此可见,准确率是评估捕获的成果中目标成果所占得比例;召回率,顾名思义,就是从关注领域中,召回目标类别的比例;而F值,则是综合这二者指标的评估指标,用于综合反映整体的指标。
当然希望检索结果Precision越高越好,同时Recall也越高越好,但事实上这两者在某些情况下有矛盾的。比如极端情况下,我们只搜索出了一个结果,且是准确的,那么Precision就是100%,但是Recall就很低;而如果我们把所有结果都返回,那么比如Recall是100%,但是Precision就会很低。因此在不同的场合中需要自己判断希望Precision比较高或是Recall比较高。如果是做实验研究,可以绘制Precision-Recall曲线来帮助分析。
灵敏性与假阴性率(漏诊率),特异性与假阳性率(误诊率)
灵敏度(也称真阳性率,sensitivity)=真阳性人数/(真阳性人数+假阴性人数)*100%。
指正确判断病人的程度,也即实际有病而被正确诊断的百分比。
这里写图片描述
特异度(也称真阴性率,specificity)=真阴性人数/(真阴性人数+假阳性人数))*100%。
指正确判断非病人的程度,也即实际无病而被正确诊断为无病的百分比。
这里写图片描述
ROC和AUC
ROC和AUC是评价分类器的指标
这里写图片描述
回到ROC上来,ROC的全名叫做Receiver Operating Characteristic。
ROC关注两个指标
True Positive Rate ( TPR ) = TP /(TP + FN)
TPR代表能将正例分对的概率
False Positive Rate( FPR ) = FP /(FP + TN)
FPR代表将负例错分为正例的概率
纵轴:真正率(击中率)true positive rate ,TPR,称为灵敏度。所有实际正例中,正确识别的正例比例。
横轴:假正率(虚报率)false positiverate, FPR,称为(1-特异度)。所有实际负例中,错误得识别为正例的负例比例。
在ROC 空间中,每个点的横坐标是FPR,纵坐标是TPR,这也就描绘了分类器在TP(真正的正例)和FP(错误的正例)间的trade-off。
ROC的主要分析工具是一个画在ROC空间的曲线——ROC curve。我们知道,对于二值分类问题,实例的值往往是连续值,我们通过设定一个阈值,将实例分类到正类或者负类(比如大于阈值划分为正类)。因此我们可以变化阈值,根据不同的阈值进行分类,根据分类结果计算得到ROC空间中相应的点,连接这些点就形成ROC curve。ROC curve经过(0,0)(1,1),实际上(0, 0)和(1, 1)连线形成的ROC curve实际上代表的是一个随机分类器。一般情况下,这个曲线都应该处于(0, 0)和(1, 1)连线的上方,如图所示。
这里写图片描述
Roc曲线用来评价分类器的性能。通过测试分类结果可以计算得到TPR和FPR的一个点对。再通过调整这个分类器分类的阈值(从0.1到0.9),阈值的设定将实例分类到正类或者负类(比如大于阈值划分为正类)。因此根据变化阈值会产生不同效果的分类,得到多个分类结果的点,可以画出一条曲线,经过(0, 0),(1, 1)。
曲线在对角线左上方,离得越远说明分类效果好。如果出现在对角线右下方,直观的补救办法就是把所有的预测结果反向,即:分类器目的是识别正例,但效果差,所以把分类器输出结果正负颠倒,把输出的正例当成负例,把负例当成正例。就得到一个好的分类器。从源头上说,分类器越差越好。
用ROC curve来表示分类器的performance很直观好用。可是,人们总是希望能有一个数值来标志分类器的好坏。于是Area Under roc Curve(AUC)就出现了。顾名思义,AUC的值就是处于ROC curve下方的那部分面积的大小。通常,AUC的值介于0.5到1.0之间,较大的AUC代表了较好的Performance。
P/R和ROC是两个不同的评价指标和计算方式,一般情况下,检索用前者,分类、识别等用后者。
这里写图片描述
这里写图片描述
准确率(Precision) = TP/(TP+FP)
反映了被分类器判定的正例中真正的正例样本的比重
虚警概率(False Alarm)FA = FP / (TP + FP) = 1 – Precision
反映被判为正例样本中,有多少个是负例
召回率(Recall)=TP/(TP+FN) = 1 - FN/P
也称为 True Positive Rate, 反映了被正确判定的正例占总的正例的比重
漏警概率(Missing Alarm)MA = FN/(TP + FN) = 1 – TP/P = 1 - Recall
反映有多少个正例被漏判了
F-measure or balanced F-score
F = 2 * 召回率 * 准确率/ (召回率+准确率)
这就是传统上通常说的F1 measure
灵敏度(也称真阳性率)sensitivity = TP/(TP + FN);
True Positive Rate ( TPR ) = TP /(TP + FN)
指正确判断病人的程度,也即实际有病而被正确诊断的百分比。
即实际上有病而按该筛检标准被正确地判为有病的百分率
(假阴性率)False Negative Rate(FNR) = FN/(TP + FN)
= 1-sensitivity = 1-TPR
假阴性率也称为漏诊率,即实际有病,但根据该筛选标准被定为非病者的百分率。
特异性(真阴性率)specificity = TN /(FP + TN)
True Negative Rate(TNR) = TN/(TP + TN)
即实际无病按照该诊断标准被正确地判为无病的百分率。
假阳性率False Positive Rate (FPR) = FP/(FP + TN)
= 1-specificity =1- TNR
假阳性也称为误诊率,即实际无病,但根据诊断标准被定为有病的百分率
这里写图片描述
综上所述, Recall(召回率)和 sensitivity(灵敏性)是同一个概念,其他无相同点。
关于分类算法中的ROC与PR指标参考下文
http://www.voidcn.com/blog/jiandanjinxin/article/p-6086289.html
MATLAB实现
AUC计算
ROC 计算
Precision-Recall and ROC Curves
Matlab code for Precision/Recall, ROC, Accuracy, F-Measure
本文参考主页
http://bookshadow.com/weblog/2014/06/10/precision-recall-f-measure/
http://www.voidcn.com/blog/marising/article/p-634268.html
http://blog.sina.com.cn/s/blog_4dff58fc010176ax.html
http://blog.sina.com.cn/s/blog_49ea41a20102w4kd.html
http://www.voidcn.com/blog/wangran51/article/p-942819.html
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。