赞
踩
TP: 预测正确的正类
TN:预测正确的负类
FP:预测错误的正类(就是把负类当正类)
FN:预测错误的负类(就是把正类当负类)
举个栗子:假如把人脸当作正类,非人脸当作负类
人脸(正类) | 非人脸(负类) | |
---|---|---|
预测为人脸 | true positive(TP) 把人脸识别为人脸 | false positive(FP) 把非人脸识别为人脸 |
预测为非人脸 | false negative (FN) 把非人脸识别为人脸 | true negative (TN) 把非人脸识别为非人脸 |
1. 准确率(accuracy)
即预测正确的数量(包括正确的正类和负类)占总数的比例
2. 精确率(precision)
查准率,正确预测为正类的数量占预测为正类的数量(注意包括了把负类当正类的情况)的比例。这个主要是从正类单方面考虑结果,兼顾了部分预测错误的,含有预测的准确性的意思(个人理解)
3. 召回率(recall)
查全率,就是正确预测为正类的数量占真正的正类总数量的比例,即在正类里面,我找回了多少正正类的意思
4. F1值
F1对Precision和Recall都进行了加权
把precision 和reacall 代入有:
1.ROC曲线。接收者操作特征曲线(receiver operating characteristic curve),是反映敏感性和特异性连续变量的综合指标,ROC曲线上每个点反映着对同一信号刺激的感受性。下图是ROC曲线例子
横坐标:1-Specificity,伪正类率(False positive rate,FPR,FPR=FP/(FP+TN)),预测为正但实际为负的样本占所有负例样本的比例;
纵坐标:Sensitivity,真正类率(True positive rate,TPR,TPR=TP/(TP+FN)),预测为正且实际为正的样本占所有正例样本的比例。即召回率
在一个二分类模型中,假设采用逻辑回归分类器,其给出针对每个实例为正类的概率,那么通过设定一个阈值如0.6,概率大于等于0.6的为正类,小于0.6的为负类。对应的就可以算出一组(FPR,TPR),在平面中得到对应坐标点。随着阈值的逐渐减小,越来越多的实例被划分为正类,但是这些正类中同样也掺杂着真正的负实例,即TPR和FPR会同时增大。阈值最大时,对应坐标点为(0,0),阈值最小时,对应坐标点(1,1)。
真正的理想情况,TPR应接近1,FPR接近0,即图中的(0,1)点。ROC曲线越靠拢(0,1)点,越偏离45度对角线越好。
2.AUC值。
AUC (Area Under Curve) 被定义为ROC曲线下的面积,显然这个面积的数值不会大于1。又由于ROC曲线一般都处于y=x这条直线的上方,所以AUC的取值范围一般在0.5和1之间。使用AUC值作为评价标准是因为很多时候ROC曲线并不能清晰的说明哪个分类器的效果更好,而作为一个数值,对应AUC更大的分类器效果更好。
从AUC判断分类器(预测模型)优劣的标准:
AUC = 1,是完美分类器,采用这个预测模型时,存在至少一个阈值能得出完美预测。绝大多数预测的场合,不存在完美分类器。
一句话来说,AUC值越大的分类器,正确率越高。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。