当前位置:   article > 正文

分类算法评价准则_分类算法的评价标准

分类算法的评价标准

1 分类算法评价准则

分类评价准则有Recall, Precision, ROC,AUC, Lift 曲线,KS曲线等。

1.1 基础指标

为了描绘的简单,在此给出一个实例:
Table 3.1 样例图

index Score true label Predict label index Score true label Predict label
1 0.9 T T 11 0.4 T N
2 0.8 T T 12 0.39 N N
3 0.7 N T 13 0.38 T N
4 0.6 T T 14 0.37 N N
5 0.55 T T 15 0.36 N N
6 0.54 T T 16 0.35 N N
7 0.53 N T 17 0.34 T N
8 0.52 N T 18 0.33 N N
9 0.51 T T 19 0.3 T N
10 0.505 N T 20 0.1 N N

假设有一个样本总数为20的数据集,实际样例中,正例和负例的比例为1:1
为了简便说明,在这里,以2分类为例。

1.1.1 混淆矩阵

在2分类问题中,预测值跟实际值有4种组合情况:

预测
1 0
实际 1 TP FN(伪阴性) Sensitivity=TP/(TP+FN)
0 FP(伪阳性) TN Specificity=TN/(FP+TN)
合计 Precision=TP/(TP+FP) (Positive predictive value, PPV) NPV =TN/(FN+TN) (Negative predictive value, NPV)

说明:
TP: 实际为正,预测也为正
FN(伪阴性):预测为负例,实际为正例
FP(伪阳性):预测为正例,实际为反例
TN: 实际为反例,预测为反例

1.1.2 基本公式

  • True Positive Rate (TPR真正率): 正样本中被预测对比例,也称之为敏感度(Sensitivity)
    T P R = T P T P + F N TPR =\frac{TP}{TP+FN} TPR=TP+FNTP
  • False Negative Rate(FNR假负率):正样本被预测错的比例
    F N R = F N T P + F N FNR =\frac{FN}{TP+FN} FNR=TP+FNFN
  • False Positive Rate(FPR假正率):负样本被预测错的比例
  • F P R = F P T N + F P FPR =\frac{FP}{TN+FP} FPR=TN+FPFP
  • True Negative Rate(TNR真负率):负样本被预测对的比例,也称之为特异度(Specificity)
    T N R = T N T N + F P TNR =\frac{TN}{TN+FP} TNR=TN+FPTN
  • Positive predictive value(PPV)
    P P V = T P T P + F P PPV =\frac{TP}{TP+FP} PPV=TP+FPTP
  • Negative predictive value (NPV)
    N P V = T N T N + F N NPV =\frac{TN}{TN+FN} NPV=TN+FNTN
  • Accuracy(准确率):就是精度
    A c c u r a c y = T P + T N T P + F P + T N + F N Accuracy =\frac{TP+TN}{TP+FP+TN+FN} Accuracy=TP+FP+TN+FN
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小蓝xlanll/article/detail/270535
推荐阅读
相关标签
  

闽ICP备14008679号