赞
踩
随机森林算法可以很好的解决决策树算法的过拟合问题
- def j2():
- '''随机森林可以很好的解决决策树的过拟合问题'''
- from sklearn.ensemble import RandomForestClassifier
- from sklearn.datasets import load_wine
- from sklearn.model_selection import train_test_split
- wine=load_wine()
- #选择数据集的前两个特征
- x=wine.data[:,:2]
- y=wine.target
- #
- x_train, x_test, y_train, y_test = train_test_split(x, y)
- #设定随机森林有10棵树
- forest=RandomForestClassifier(n_estimators=6,random_state=3)
- #n_estimators是控制决策树的数量, bootstrap=True放回抽样的意思,为了让每一个决策树都不一样。max_features越高,决策树越象。
- #拟合数据
- forest.fit(x_train,y_train)
- #我们用图像直观的发现随即森林的过程
- cmap_light = ListedColormap(['#FFAAAA', '#AAFFAA', '#AAAAFF'])
- cmap = ListedColormap(['#FF0000', '#00FF00', '#0000FF'])
- # 分别用样本的两个特征值去创建图像的横轴和纵轴
- x_min, x_max = x_train[:, 0].min() - 1, x_train[:, 0].max() + 1
- y_min, y_max = x_train[:, 1].min() - 1, x_train[:, 1].max() + 1
- import numpy as np
- xx, yy = np.meshgrid(np.arange(x_min, x_max, .02), np.arange(y_min, y_max, .02))
- z = forest.predict(np.c_[xx.ravel(), yy.ravel()])
- # 给每个分类样本分配不一样的颜色
- import matplotlib.pyplot as plt
- z = z.reshape(xx.shape)
- plt.figure()
- plt.pcolormesh(xx, yy, z, cmap=cmap_light)
- # 用散点把样本表示出来
- plt.scatter(x[:, 0], x[:, 1], c=y, cmap=cmap, edgecolors='k', s=20)
- plt.xlim()
- plt.ylim()
- plt.title('Classifier:RandomForest') # 深度为1
- plt.show()
- '''最关键的一点是,随机森林支持多进程并行处理,n_jobs=1,可以全开CPU '''
- '''针对超高维数据集和稀疏数据来说,线性模型要好很多'''
- #'''找一个红酒数据,我们进行预测'''
- wine_data=[[0,1]]#因为前面我们只选择数据集的两个特征值
- predict=forest.predict(wine_data)
- if predict==1:
- print('这是一款好的红酒')
- else:
- print('这不是我们想要的红酒')
预测结果:这是一款好的红酒
下面对一个人口的数据集进行模拟预测:
- def j3():#以1994年美国人口普查的数据集为例子,让决策树和随机森林模型对其进行分析
- '我们从外部下载数据集,然后导入进去'
- import pandas as pd
- data=pd.read_csv('adult.csv',header=None,index_col=False,names=['年龄','单位性质','权重','学历','受教育时长','婚姻状况','职业','家庭情况','种族','性别','资产所得','资产损失','周工作时长','原籍','收入'])
- data_list=data[['年龄','单位性质','学历','性别','周工作时长','职业','收入']]#只选取一部分数据
- print(data_list.head())
- '''我们会发现下载的数据都是字符串,不是我们要的整数型数值0和1,这就需要我们对数据进行处理'''
- data_change=pd.get_dummies(data_list)#使用get_dummies将文本数据变成数值,就是在原有的数据集上添加了虚拟变量
- #将对比原始特征和虚拟变量特征
- print('样本的原始特征:\n',list(data_list.columns),'\n')
- print('虚拟变量特征:\n',list(data_change.columns))
- '显示数据集的前5行'
- print(data_change.head())
- '''我们接下来将数据值分配给特征向量X和分类标签y'''
- #定义数据集的特征值
- features=data_change.loc[:,'年龄':'职业_ Transport-moving']
- #将特征数值赋予为x
- x=features.values
- #将收入大于50k作为预测目标
- y=data_change['收入_ >50K'].values
- print('特征形态:{} 标签形态;{}'.format(x.shape,y.shape))
- '''对数据进行处理完之后就可以进行数据集的划分和模型的训练'''
- from sklearn.model_selection import train_test_split
- x_train,x_test,y_train,y_test=train_test_split(x,y,random_state=0)
- #用决策树拟合数据
- from sklearn.tree import DecisionTreeClassifier
- dt=DecisionTreeClassifier(max_depth=6)
- dt.fit(x_train,y_train)
- print('训练模型得分:', '%.2f' % dt.score(x_train, y_train))
- print('测试模型得分:','%.2f'%dt.score(x_test,y_test))
- '''然后我们可以通过这个模型来预测一个数据是不是我们需要的'''
- #将一个人的数据放入进去
- Mr_hua=[[24,40,0,0,0,0,0,0,1,0,0,0,0,0,0,0,0,0,0,0,0,0,0,1,0,0,0,0,1,0,1,0,0,0,0,0,0,0,0,0,0,0,0,0]]
- datig=dt.predict(Mr_hua)#预测是标签值
- if datig==1:
- print('这是我们需要的精英顶端人才')
- else:
- print('这不是我们需要的人才')
- '''当然,我们也可以用随机森林来进行预测结果'''
- from sklearn.ensemble import RandomForestClassifier
- rf=RandomForestClassifier(n_estimators=10,random_state=0,n_jobs=1)
- rf.fit(x_train,y_train)
- print('训练模型得分:', '%.2f' % rf.score(x_train, y_train))
- print('测试模型得分:', '%.2f' % rf.score(x_test, y_test))
- Mr_hua = [
- [24, 40, 0, 0, 0, 0, 0, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 0, 0, 0, 0, 1, 0, 1, 0, 0, 0, 0, 0,
- 0, 0, 0, 0, 0, 0, 0, 0]]
- dating = rf.predict(Mr_hua) # 预测是标签值
- if dating == 1:
- print('这是我们需要的精英顶端人才')
- else:
- print('这不是我们需要的人才')
以上代码,大家可以当作学习练习,来理解决策树和随机森林对于我们机器学习处理数据集的一些知识。
如有错误敬请指正
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。