当前位置:   article > 正文

利用sklearn库决策树模型对iris数据多分类并进行评估_利用sklearn自带的iris数据集构建决策树

利用sklearn自带的iris数据集构建决策树

1.导入所需要的库

 

  1. from sklearn.tree import DecisionTreeClassifier
  2. from sklearn.datasets import load_iris

2.加载iris数据

  1. iris = load_iris()
  2. x, y = iris.data, iris.target

在这里我们输出前十行的iris.data看看

print(x[:10,:])

3.使用sklearn库对iris数据集进行乱序切分为训练集和测试集(7:3比例)

  1. from sklearn.model_selection import train_test_split
  2. from sklearn.metrics import classification_report
  3. x_train, x_test, y_train, y_test = train_test_split(x,y,test_size=0.3)

切分训练集和测试集这里我们使用train_test_split(),test_size为测试集所占的比例。

sklearn的train_test_split()各函数参数含义解释(非常全) - The-Chosen-One - 博客园

4.使用决策树模型对测试集进行分类

  1. decisionTree = DecisionTreeClassifier()
  2. decisionTree.fit(x_train, y_train)#训练决策树
  3. y_predict = decisionTree.predict(x_test)#在x_test上进行测试

5.利用classification_report()对分类的结果进行评估

print(classification_report(y_test,y_predict))

 

详细介绍见博客https://blog.csdn.net/weixin_48964486/article/details/122881350

6.使用sklearn库的决策树模型对iris数据集进行10折交叉验证,评估每折的正确率,并计算平均准确率:

K折交叉验证:将训练集分成K份,每次用其中一份做测试集,其余的k-1份作为训练集,循环k次,取每次训练结果的平均值作为评分。

  1. from sklearn.model_selection import cross_val_score# 声明决策树模型
  2. decisionTree = DecisionTreeClassifier() #定义决策树模型
  3. # K折交叉验证(K=10)
  4. scores = cross_val_score(decisionTree,x,y,cv=10) #算出10折交叉验证每折的准确率
  5. # 打印10次准确率
  6. for i, score in enumerate(scores):
  7.     print('{:d}: {:.2f}%'.format(i, 100*score))
  8. # 打印平均准确率
  9. print('Average Accuracy: {:.2f}%'.format(100*scores.mean()))

 

7.修改决策树模型中的参数(如criterion、max_depth、spliter等)评估10折交叉验证下的平均准确率,至少验证4组不同参数的决策树模型

  1. params_list = (
  2.     {'criterion': 'gini', 'max_depth': None, 'splitter': 'best'},
  3.     {'criterion': 'gini', 'max_depth': None, 'splitter': 'random'},
  4.     {'criterion': 'entropy', 'max_depth':None,'splitter':'best'},
  5.     {'criterion': 'gini', 'max_depth':5,'splitter':'best'}
  6. )
  7. for params in params_list:# 声明决策树模型
  8.         print('model params:', params)
  9.        decisionTree=DecisionTreeClassifier(criterion=params['criterion'],max_depth=params['max_depth'],splitter=params['splitter']) 
  10.          # K折交叉验证(K=10)
  11.          scores =cross_val_score(decisionTree,x,y,cv=10)  # 你的代码
  12.          # 打印平均准确率
  13.         print('Average Accuracy: {:.2f}%'.format(100*scores.mean()))

下面是参数的介绍:

class_weight : 指定样本各类别的的权重,主要是为了防止训练集某些类别的样本过多导致训练的决策树过于偏向这些类别。这里可以自己指定各个样本的权重,如果使用“balanced”,则算法会自己计算权重,样本量少的类别所对应的样本权重会高。

criterion : gini或者entropy,前者是基尼系数,后者是信息熵;

max_depth : int or None, optional (default=None) 设置决策随机森林中的决策树的最大深度,深度越大,越容易过拟合,推荐树的深度为:5-20之间;

max_features: None(所有),log2,sqrt,N 特征小于50的时候一般使用所有的;

max_leaf_nodes : 通过限制最大叶子节点数,可以防止过拟合,默认是"None”,即不限制最大的叶子节点数。

min_impurity_split: 这个值限制了决策树的增长,如果某节点的不纯度(基尼系数,信息增益,均方差,绝对差)小于这个阈值则该节点不再生成子节点。即为叶子节点 。

min_samples_leaf : 这个值限制了叶子节点最少的样本数,如果某叶子节点数目小于样本数,则会和兄弟节点一起被剪枝。

min_samples_split : 设置结点的最小样本数量,当样本数量可能小于此值时,结点将不会在划分。

min_weight_fraction_leaf: 这个值限制了叶子节点所有样本权重和的最小值,如果小于这个值,则会和兄弟节点一起被剪枝默认是0,就是不考虑权重问题。

splitter : best or random 前者是在所有特征中找最好的切分点 后者是在部分特征中,默认的”best”适合样本量不大的时候,而如果样本数据量非常大,此时决策树构建推荐”random” 。

————————————————

原文链接:https://blog.csdn.net/qq_39885465/article/details/104523125

关于参数的介绍详细博客:https://www.cnblogs.com/juanjiang/p/11003369.html

8.分析决策树模型中的参数对平均准确率的影响

max_depth限制树的最大深度,超过设定深度的树枝全部剪掉 这是用得最广泛的剪枝参数,在高维度低样本量时非常有效。决策树多生长一层,对样本量的需求会增加一倍,所以限制树深度能够有效地限制过拟合。

criterion参数是用来设置不纯度的判决方法,默认的criterion参数使用的是‘gini’基尼系数,还可以设置为‘entropy’信息增益。比起基尼系数,信息熵对不纯度更加敏感,对不纯度的惩罚最强。对于高维数据或者噪音很多的数据,信息熵很容易过拟合,基尼系数在这种情况下效果往往比较好。

random_state用来设置分枝中的随机模式的参数,默认None,在高维度时随机性会表现更明显,低维度的数据(比如鸢尾花数据集),随机性几乎不会显现。输入任意整数,会一直长出同一棵树,让模型稳定下来。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/你好赵伟/article/detail/701817
推荐阅读
相关标签
  

闽ICP备14008679号