当前位置:   article > 正文

模型评估之混淆矩阵(confusion_matrix)含义及Python代码实现_python中confusion_matrix

python中confusion_matrix

本文转载于以下博客地址:https://baijiahao.baidu.com/s?id=1619821729031070174&wfr=spider&for=pc

如有冒犯,还望谅解!

在前面的文章中我们讲到了回归模型和分类模型的评估指标,区分了准确率和精确率的区别,并且比较了精确率和召回率内在的联系。本篇文章我们再来学习另外一个评估方法,即混淆矩阵(confusion_matrix)。

在讲矩阵之前,我们先复习下之前在讲分类评估指标中定义的一些符号含义,如下:

TP(True Positive):将正类预测为正类数,真实为0,预测也为0FN(False Negative):将正类预测为负类数,真实为0,预测为1FP(False Positive):将负类预测为正类数, 真实为1,预测为0TN(True Negative):将负类预测为负类数,真实为1,预测也为1混淆矩阵定义及表示含义

混淆矩阵是机器学习中总结分类模型预测结果的情形分析表,以矩阵形式将数据集中的记录按照真实的类别与分类模型预测的类别判断两个标准进行汇总。其中矩阵的行表示真实值,矩阵的列表示预测值,下面我们先以二分类为例,看下矩阵表现形式,如下:

二分类混淆矩阵

现在我们举个列子,并画出混淆矩阵表,假如宠物店有10只动物,其中6只狗,4只猫,现在有一个分类器将这10只动物进行分类,分类结果为5只狗,5只猫,那么我们画出分类结果混淆矩阵,并进行分析,如下(我们把狗作为正类):

猫狗分类混淆矩阵

通过混淆矩阵我们可以轻松算的真实值狗的数量(行数量相加)为6=5+1,分类得到狗的数量(列数量相加)为5=5+0,真实猫的数量为4=0+4,分类得到猫的数量为5=1+4。同时,我们不难发现,对于二分类问题,矩阵中的4个元素刚好表示TP,TN,FP,TN这四个符号量,如下图:

那么对于二分类问题来说,精确率Precision=a/(a+c)=TP/(TP+FP),召回率recall=a/(a+b)=TP/(TP+FN),准确率accuracy=(a+d)/(a+b+c+d)=(TP+FN+FP+TN),可以看到准确率中的分子值就是矩阵对角线上的值。

刚才分析的是二分类问题,那么对于多分类问题,混淆矩阵表示的含义也基本相同,这里我们以三类问题为例,看看如何根据混淆矩阵计算各指标值。

多分类混淆矩阵

与二分类混淆矩阵一样,矩阵行数据相加是真实值类别数,列数据相加是分类后的类别数,那么相应的就有以下计算公式;

精确率_类别1=a/(a+d+g)召回率_类别1=a/(a+b+c)Python代码实现混淆矩阵

Python中的sklearn库提供了相应的方法来输出矩阵数据,非常方便,函数如下:

sklearn.metrics.confusion_matrix(y_true, y_pred, labels=None, sample_weight=None)

其中,y_true:是样本真实分类结果,y_pred 是样本预测分类结果 ,labels是所给出的类别,通过这个可对类别进行选择 ,sample_weight 是样本权重。这里我们用代码演示三分类问题混淆矩阵(这里我们用confusion_matrix生成矩阵数据,然后用seaborn的热度图绘制出混淆矩阵数据),如下:

#导入依赖包import seaborn as sns;from sklearn.metrics import confusion_matriximport matplotlib.pyplot as pltsns.set()y_true = ["cat", "dog", "cat", "cat", "dog", "rebit"]y_pred = ["dog", "dog", "rebit", "cat", "dog", "cat"]C2= confusion_matrix(y_true, y_pred, labels=["dog", "rebit", "cat"])sns.heatmap(C2,annot=True)

多分类混淆矩阵

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/2023面试高手/article/detail/151736?site
推荐阅读
相关标签
  

闽ICP备14008679号