赞
踩
#基础函数库
import numpy as np
import pandas as pd
#画图函数库
import matplotlib.pyplot as plt
import seaborn as sns
鸢花数据(iris)数据集一共包含5个变量,其中4个特征变量,1个目标分类变量。
共有150个样本,目标变量为花的类别,都属于鸢尾属下的三个亚属,分别是:
- 山鸢尾 (Iris-setosa)
- 变色鸢尾(Iris-versicolor)
- 维吉尼亚鸢尾(Iris-virginica)。
包含的三种鸢尾花的四个特征,分别是:
- 花萼长度(cm)
- 花萼宽度(cm)
- 花瓣长度(cm)
- 花瓣宽度(cm)
这些形态特征在过去被用来识别物种。
## 我们利用 sklearn 中自带的 iris 数据作为数据载入,并利用Pandas转化为DataFrame格式
from sklearn.datasets import load_iris
#得到数据特征
iris = load_iris()
# print(iris)
#得到数据对应的标签
iris_target = iris.target
# print(iris_target)
#利用Pandas转化为DataFrame格式
iris_features = pd.DataFrame(data=iris.data, columns=iris.feature_names)
# print(iris_features)
## 利用.info()查看数据的整体信息
iris_features.info()
# 进行简单的数据查看
#前五行
iris_features.head()
#后五行
iris_features.tail()
其对应的类别标签为,
- 0代表'setosa',
- 1代表'versicolor',
- 2代表'virginica'
iris_target
# 利用value_counts函数查看每个类别数量
pd.Series(iris_target).value_counts()
# 对特征进行一些统计描述
iris_features.describe()
# 合并标签和特征信息
#进行浅拷贝,防止对于原始数据的修改
iris_copy = iris_features.copy()
# print(iris_copy)
iris_copy['target']=iris_target
# print(iris_copy['target'])
# 特征与标签组合的散点可视化
sns.pairplot(data=iris_copy,diag_kind='hist',hue='target')
plt.show()
# 利用箱型图我们也可以得到不同类别在不同特征上的分布差异情况。
# 箱形图(Box-plot)
# 又称为盒须图、盒式图或箱线图,是一种用作显示一组数据分散情况资料的统计图。
# 它能显示出一组数据的最大值、最小值、中位数及上下四分位数
# palette:调色板,控制图像的色调
# saturation就是色彩饱和度选项,就是颜色深浅
for col in iris_features.columns:
fig = plt.figure(figsize=(5,4))
sns.boxplot(x='target', y=col, saturation=0.5,palette='pastel', data=iris_copy)
plt.title(col)
plt.show()
# 选取其前三个特征绘制三维散点图 from mpl_toolkits.mplot3d import Axes3D fig = plt.figure(figsize=(10,8)) ax = fig.add_subplot(111, projection='3d') class0 = iris_copy[iris_copy['target']==0].values # print(class0) class1 = iris_copy[iris_copy['target']==1].values # print(class1) class2 = iris_copy[iris_copy['target']==2].values # print(class2) # 'setosa'(0), 'versicolor'(1), 'virginica'(2) ax.scatter(class0[:,0], class0[:,1], class0[:,2],label='setosa') ax.scatter(class1[:,0], class1[:,1],class1[:,2],label='versicolor') ax.scatter(class2[:,0], class2[:,1],class2[:,2],label='virginica') plt.show()
## 为了正确评估模型性能,将数据划分为训练集和测试集,并在训练集上训练模型,在测试集上验证模型性能。 from sklearn.model_selection import train_test_split #选择其他类别为0和1的样本(不包括类别为2的样本) iris_features_part = iris_features.iloc[:100] # print(iris_features_part) iris_target_part = iris_target[:100] #测试集大小20% # random_state是一个随机种子,是在任意带有随机性的类或函数里作为参数来控制随机模式。 # 当random_state取某一个值时,也就确定了一种规则。 # random_state可以用于很多函数,我比较熟悉的是用于以下三个地方:1、训练集测试集的划分 2、构建决策树 3、构建随机森林 x_train,x_test,y_train,y_test = train_test_split(iris_features_part,iris_target_part,test_size = 0.2,random_state=2020) # 从sklearn钟导入逻辑回归模型 from sklearn.linear_model import LogisticRegression # 定义 逻辑回归模型 clf=LogisticRegression(random_state=0,solver='lbfgs') # 在训练集上训练逻辑回归模型 clf.fit(x_train, y_train)
#查看对应的w
print('the weight of Logistic Regression:',clf.coef_)
print('the intercept(w0) of Logistic Regression:',clf.intercept_)
# 在训练集和测试集上分布利用训练好的模型进行预测
train_predict = clf.predict(x_train)
test_predict = clf.predict(x_test)
# 利用accuracy(准确度)预测正确的样本数目占总预测样本数目的比例 评估模型效果
# 我们可以发现其准确度为1,代表所有的样本都预测正确了。
from sklearn import metrics
print('The accuracy of the Logistic Regression is:',metrics.accuracy_score(y_train,train_predict))
print('The accuracy of the Logistic Regression is:',metrics.accuracy_score(y_test,test_predict))
# 查看混淆矩阵 (预测值和真实值的各类情况统计矩阵)
confusion_matrix_result = metrics.confusion_matrix(test_predict,y_test)
print('The confusion matrix result:\n',confusion_matrix_result)
# 利用热力图对于结果进行可视化
plt.figure(figsize=(8,6))
sns.heatmap(confusion_matrix_result,annot=True,cmap='Blues')
plt.xlabel('Predicted labels')
plt.ylabel('True labels')
plt.show()
# 测试集大小为20%
x_train,x_test,y_train,y_test = train_test_split(iris_features,iris_target,test_size = 0.2,random_state=2020)
#定义逻辑回归模型
clf=LogisticRegression(random_state=0,solver='lbfgs')
#在训练集上训练逻辑回归模型
clf.fit(x_train,y_train)
# 由于这个是3分类,所有我们这里得到了三个逻辑回归模型的参数,其三个逻辑回归组合起来即可实现三分类。
# 查看其对应的w
print('the weight of Logistic Regression:\n',clf.coef_)
# 查看其对应的w0
print('the intercept(w0) of Logistic Regression:\n',clf.intercept_)
# 在训练集和测试集上分布利用训练好的模型进行预测
train_predict = clf.predict(x_train)
test_predict = clf.predict(x_test)
# 由于逻辑回归模型是概率预测模型(前文介绍的 p = p(y=1|x,\theta)),所有我们可以利用 predict_proba 函数预测其概率
train_predict_proba = clf.predict_proba(x_train)
test_predict_proba = clf.predict_proba(x_test)
print('The test predict Probability of each class:\n',test_predict_proba)
## 其中第一列代表预测为0类的概率,第二列代表预测为1类的概率,第三列代表预测为2类的概率。
## 利用accuracy(准确度)【预测正确的样本数目占总预测样本数目的比例】评估模型效果
print('The accuracy of the Logistic Regression is:',metrics.accuracy_score(y_train,train_predict))
print('The accuracy of the Logistic Regression is:',metrics.accuracy_score(y_test,test_predict))
## 查看混淆矩阵
confusion_matrix_result = metrics.confusion_matrix(test_predict,y_test)
print('The confusion matrix result:\n',confusion_matrix_result)
# 利用热力图对于结果进行可视化
plt.figure(figsize=(8, 6))
sns.heatmap(confusion_matrix_result, annot=True, cmap='Blues')
plt.xlabel('Predicted labels')
plt.ylabel('True labels')
plt.show()
通过结果我们可以发现,其在三分类的结果的预测准确度上有所下降,
其在测试集上的准确度为: 86.67%,
这是由于'versicolor'(1)和 'virginica'(2)这两个类别的特征,我们从可视化的时候也可以发现,
其特征的边界具有一定的模糊性(边界类别混杂,没有明显区分边界),所有在这两类的预测上出现了一定的错误。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。