当前位置:   article > 正文

sklearn【AUC-ROC】原理,以及绘制ROC曲线!_sklaern绘制aoc曲线

sklaern绘制aoc曲线

一、AUC-ROC 介绍

在分类任务中,特别是当数据集中的类别分布不平衡时,评估模型的性能变得尤为重要。AUC-ROC(Area Under the Receiver Operating Characteristic Curve,受试者工作特征曲线下的面积)是一种有效的评估指标,能够全面反映模型在不同分类阈值下的性能,并特别适用于不平衡类别的场景。本文将介绍如何使用sklearn库来计算AUC-ROC,并解释其背后的计算原理。

首先,我们需要理解AUC-ROC的计算方式和其背后的含义。AUC-ROC是通过绘制ROC曲线并计算其下的面积来得到的。

ROC曲线是真正例率(True Positive Rate,TPR)和假正例率(False Positive Rate,FPR)在不同分类阈值下的关系曲线。TPR是真正例占所有正例的比例,FPR是假正例占所有反例的比例。

AUC-ROC的值越接近1,表示模型的性能越好,能够更好地区分正例和反例。

在sklearn库中,我们可以使用roc_auc_score函数来计算AUC-ROC。下面我们将通过一个简单的例子来演示如何使用这个函数。

二、案例学习

首先,我们需要准备数据集和分类模型。在这个例子中,我们将使用sklearn自带的乳腺癌数据集(Breast Cancer Wisconsin dataset),并使用逻辑回归作为分类器。

from sklearn import datasets
from sklearn.model_selection import train_test_split
from sklearn.linear_model import LogisticRegression
from sklearn.metrics import roc_curve, auc
import matplotlib.pyplot as plt

# 加载乳腺癌数据集
cancer = datasets.load_breast_cancer()
X = cancer.data
y = cancer.target

# 划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=42)

# 创建逻辑回归模型
model = LogisticRegression(solver='liblinear')

# 使用训练数据进行训练
model.fit(X_train, y_train)
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19

接下来,我们将使用模型对测试集进行预测,并计算预测为正例的概率。这些概率将用于绘制ROC曲线。

# 对测试集进行预测概率的估计
y_pred_prob = model.predict_proba(X_test)[:, 1]
  • 1
  • 2

然后,我们可以使用roc_curve函数来计算真正例率和假正例率,并使用这些值来绘制ROC曲线。

# 计算真正例率(TPR)和假正例率(FPR)
fpr, tpr, thresholds = roc_curve(y_test, y_pred_prob)

# 计算AUC-ROC的值
roc_auc = auc(fpr, tpr)

# 绘制ROC曲线
plt.figure()
lw = 2
plt.plot(fpr, tpr, color='darkorange', lw=lw, label='ROC curve (area = %0.2f)' % roc_auc)
plt.plot([0, 1], [0, 1], color='navy', lw=lw, linestyle='--')
plt.xlim([0.0, 1.0])
plt.ylim([0.0, 1.05])
plt.xlabel('False Positive Rate')
plt.ylabel('True Positive Rate')
plt.title('Receiver Operating Characteristic Example')
plt.legend(loc="lower right")
plt.show()
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18

运行结果:
AUC-ROC曲线.png

在上面的代码中,我们首先使用roc_curve函数计算了真正例率和假正例率,并使用auc函数计算了AUC-ROC的值。然后,我们使用matplotlib库来绘制ROC曲线。曲线越接近左上角,表示模型的性能越好。对角线表示一个无用的模型,即随机猜测。

通过绘制ROC曲线,我们可以直观地看到模型在不同分类阈值下的性能表现。曲线的形状和AUC-ROC的值可以帮助我们评估模型在区分正例和反例时的能力。如果曲线越接近左上角,并且AUC-ROC的值越接近1,那么模型的性能就越好。

此外,我们还可以将ROC曲线与其他评估指标(如准确率、精确度、召回率等)进行比较,以更全面地了解模型的性能。ROC曲线的一个优点是它不受特定分类阈值的影响,因此可以提供更稳健的性能评估。

三、总结

在实际应用中,我们可以根据具体的问题和数据集选择合适的分类模型和评估指标,并使用Python和sklearn库来绘制ROC曲线,以便更好地了解模型的性能并进行优化。通过不断迭代和改进模型,我们可以提高模型的分类性能,并更好地应对不平衡类别等挑战。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/很楠不爱3/article/detail/485203
推荐阅读
相关标签
  

闽ICP备14008679号