当前位置:   article > 正文

Python实现Xgboost模型_xgboost python实例

xgboost python实例

1.下载xgboost包文件:https://www.lfd.uci.edu/~gohlke/pythonlibs/#xgboost

2.安装xgboost包:命令管理器输入 pip install G:\GoogleDownload\xgboost-0.82-cp36-cp36m-win_amd64.whl

3.xgboost优点:

优点:(1)正则化:XGBoost在代价函数里加入了正则项,用于控制模型的复杂度。正则项里包含了树的叶子节点个数、每个叶子节点上输出的score的L2模的平方和。从Bias-variance tradeoff角度来讲,正则项降低了模型的variance,使学习出来的模型更加简单,防止过拟合,这也是xgboost优于传统GBDT的一个特性。

(2)并行处理:XGBoost工具支持并行。Boosting不是一种串行的结构吗?怎么并行的?注意XGBoost的并行不是tree粒度的并行,XGBoost也是一次迭代完才能进行下一次迭代的(第t次迭代的代价函数里包含了前面t-1次迭代的预测值)。XGBoost的并行是在特征粒度上的。我们知道,决策树的学习最耗时的一个步骤就是对特征的值进行排序(因为要确定最佳分割点),XGBoost在训练之前,预先对数据进行了排序,然后保存为block结构,后面的迭代中重复地使用这个结构,大大减小计算量。这个block结构也使得并行成为了可能,在进行节点的分裂时,需要计算每个特征的增益,最终选增益最大的那个特征去做分裂,那么各个特征的增益计算就可以开多线程进行。

(3)灵活性:XGBoost支持用户自定义目标函数和评估函数,只要目标函数二阶可导就行。

(4)缺失值处理:对于特征的值有缺失的样本,xgboost可以自动学习出它的分裂方向

(5)剪枝:XGBoost 先从顶到底建立所有可以建立的子树,再从底到顶反向进行剪枝。比起GBM,这样不容易陷入局部最优解。

(6)内置交叉验证:XGBoost允许在每一轮boosting迭代中使用交叉验证。因此,可以方便地获得最优boosting迭代次数。而GBM使用网格搜索,只能检测有限个值。

4.XGBoost参数详解

在运行XGboost之前,必须设置三种类型参数:general parameters,booster parameters和task parameters:

4.1通用参数(general parameters):该参数参数控制在提升(boosting)过程中使用哪种booster,常用的booster有树模型(tree)和线性模型(linear model)

booster [default=gbtree]:有两中模型可以选择gbtree和gblinear。gbtree使用基于树的模型进行提升计算,gblinear使用线性模型进行提升计算。缺省值为gbtree

silent [default=0]:取0时表示打印出运行时信息,取1时表示以缄默方式运行,不打印运行时信息。缺省值为0

nthread:XGBoost运行时的线程数。缺省值是当前系统可以获得的最大线程数

num_pbuffer:预测缓冲区大小,通常设置为训练实例的数目。缓冲用于保存最后一步提升的预测结果,无需人为设置。

num_feature:Boosting过程中用到的特征维数,设置为特征个数。XGBoost会自动设置,无需人为设置。

4.2 Booster参数(booster parameters):这取决于使用哪种booster。

(1)tree booster参数(booster=gbtree)

eta [default=0.3] :为了防止过拟合,更新过程中用到的收缩步长。在每次提升计算之后,算法会直接获得新特征的权重。 eta通过缩减特征的权重使提升计算过程更加保守。缺省值为0.3 ,取值范围为:[0,1]。典型值为0.01~0.2。

gamma [default=0] :在节点分裂时,只有分裂后损失函数的值下降了,才会分裂这个节点。Gamma指定了节点分裂所需的最小损失函数下降值。 这个参数的值越大,算法越保守。

这个参数的值和损失函数息息相关,所以是需要调整的。 取值范围为:[0,∞]

max_depth [default=6] :数的最大深度。缺省值为6 。取值范围为:[1,∞]。需要使用CV函数来进行调优。典型值:3-10

min_child_weight [default=1] :孩子节点中最小的样本权重和。如果一个叶子节点的样本权重和小于min_child_weight则拆分过程结束。在现行回归模型中,这个参数是指建立每个模型所需要的最小样本数。这个参数用于避免过拟合。当它的值较大时,可以避免模型学习到局部的特殊样本。 但是如果这个值过高,会导致欠拟合。这个参数需要使用CV来调整。取值范围为:[0,∞]

max_delta_step [default=0] :我们允许每个树的权重被估计的值。如果它的值被设置为0,意味着没有约束;如果它被设置为一个正值,它能够使得更新的步骤更加保守。通常这个参数是没有必要的,但是如果在逻辑回归中类极其不平衡这时候他有可能会起到帮助作用。把它范围设置为1-10之间也许能控制更新。 取值范围为:[0,∞]

subsample [default=1] :用于训练模型的子样本占整个样本集合的比例。如果设置为0.5则意味着XGBoost将随机的从整个样本集合中随机的抽取出50%的子样本建立树模型,这能够防止过拟合。 取值范围为:(0,1]

colsample_bytree [default=1] :在建立树时对特征采样的比例。缺省值为1 。取值范围为:(0,1]

(2)Linear Booster参数(booster=gblinear)

lambda [default=0] :L2 正则的惩罚系数

alpha [default=0] :L1 正则的惩罚系数

lambda_bias :在偏置上的L2正则。缺省值为0(在L1上没有偏置项的正则,因为L1时偏置不重要)

4.3 学习目标参数(task parameters):控制学习的场景,例如在回归问题中会使用不同的参数控制排序。

objective [ default=reg:linear ] :定义学习任务及相应的学习目标,可选的目标函数:reg:linear(线性回归);reg:logistic(逻辑回归);binary:logistic(二分类的逻辑回归问题,输出为概率);binary:logitraw(二分类的逻辑回归问题,输出的结果为wTx);count:poisson(计数问题的poisson回归,输出结果为poisson分布。在poisson回归中,max_delta_step的缺省值为0.7。(used to safeguard optimization) );multi:softmax(让XGBoost采用softmax目标函数处理多分类问题,同时需要设置参数num_class(类别个数));multi:softprob(和softmax一样,但是输出的是ndata * nclass的向量,可以将该向量reshape成ndata行nclass列的矩阵。没行数据表示样本所属于每个类别的概率。);rank:pairwise(set XGBoost to do ranking task by minimizing the pairwise loss)

base_score [ default=0.5 ]:所有实例的初始化预测分数,全局偏置;当有足够的迭代次数时,改变这个值将不会有太大影响。

eval_metric [ default according to objective ]:校验数据所需要的评价指标,不同的目标函数将会有缺省的评价指标(rmse for regression, and error for classification, mean average precision for ranking);用户可以添加多种评价指标,对于Python用户要以list传递参数对给程序,而不是map参数list参数不会覆盖’eval_metric’,可供的选择:rmse(均方根误差);mae(平均绝对误差);logloss(负对数似然函数值);error(二分类错误率(阈值为0.5) );merror(多分类错误率);mlogloss (多分类logloss损失函数);auc(曲线下面积)

seed [ default=0 ]:随机数的种子。缺省值为0

4.4 xgboost.train()函数参数

  1. xgboost.train(params,
  2. dtrain,
  3. num_boost_round=10,
  4. evals=(),
  5. obj=None,
  6. feval=None,
  7. maximize=False,
  8. early_stopping_rounds=None,
  9. evals_result=None,
  10. verbose_eval=True,
  11. learning_rates=None,
  12. xgb_model=None)

params :这是一个字典,里面包含着训练中的参数关键字和对应的值,形式是params = {‘booster’:’gbtree’, ’eta’:0.1}

dtrain :训练的数据

num_boost_round :这是指提升迭代的个数

evals :这是一个列表,用于对训练过程中进行评估列表中的元素。形式是evals = [(dtrain,’train’), (dval,’val’)]或者是evals = [ (dtrain,’train’)], 对于第一种情况,它使得我们可以在训练过程中观察验证集的效果。

obj:自定义目的函数

feval:自定义评估函数

maximize: 是否对评估函数进行最大化

early_stopping_rounds: 早期停止次数 ,假设为100,验证集的误差迭代到一定程度在100次内不能再继续降低,就停止迭代。这要求evals 里至少有一个元素,如果有多个,按最后一个去执行。返回的是最后的迭代次数(不是最好的)。如果early_stopping_rounds 存在,则模型会生成三个属性,bst.best_score, bst.best_iteration, 和bst.best_ntree_limit

evals_result :字典,存储在watchlist 中的元素的评估结果。

verbose_eval(可以输入布尔型或数值型):也要求evals 里至少有 一个元素。如果为True, 则对evals中元素的评估结果会输出在结果中;如果输入数字,假设为5,则每隔5个迭代输出一次。

learning_rates :每一次提升的学习率的列表,

xgb_model:在训练之前用于加载的xgb model。

5.Xgboost实战:

XGBoost有两大类接口:XGBoost原生接口和scikit-learn接口 ,并且XGBoost能够实现分类回归两种任务

  1. # 基于XGBoost原生接口的分类
  2. from sklearn.datasets import load_iris
  3. import xgboost as xgb
  4. from xgboost import plot_importance
  5. from matplotlib import pyplot as plt
  6. from sklearn.model_selection import train_test_split
  7. from sklearn.metrics import accuracy_score # 准确率
  8. iris = load_iris() # 加载样本数据集
  9. x_data, y_data = iris.data, iris.target
  10. x_train, x_test, y_train, y_test = train_test_split(x_data, y_data,test_size=0.2, random_state=1234565) # 数据集分割
  11. params = {
  12. 'booster': 'gbtree',
  13. 'objective': 'multi:softmax',
  14. 'num_class': 3,
  15. 'gamma': 0.1,
  16. 'max_depth': 6,
  17. 'lambda': 2,
  18. 'subsample': 0.7,
  19. 'colsample_bytree': 0.7,
  20. 'min_child_weight': 3,
  21. 'silent': 1,
  22. 'eta': 0.1,
  23. 'seed': 1000,
  24. 'nthread': 4,
  25. }
  26. plst = params.items()
  27. dtrain = xgb.DMatrix(x_train, y_train) # 生成数据集格式
  28. model = xgb.train(params,
  29. dtrain, # 训练的数据
  30. num_boost_round=500 # 提升迭代的个数
  31. ) # xgboost模型训练
  32. # 对测试集进行预测
  33. dtest = xgb.DMatrix(x_test)
  34. y_pred = model.predict(dtest)
  35. # 计算准确率
  36. accuracy = accuracy_score(y_test,y_pred)
  37. print("accuarcy: %.2f%%" % (accuracy*100.0))
  38. # 显示重要特征
  39. plot_importance(model)
  40. plt.show()
  41. # ================基于XGBoost原生接口的回归=============
  42. import xgboost as xgb
  43. from xgboost import plot_importance
  44. from matplotlib import pyplot as plt
  45. from sklearn.model_selection import train_test_split
  46. from sklearn.datasets import load_boston
  47. from sklearn.metrics import mean_squared_error
  48. # 加载数据集
  49. boston = load_boston()
  50. X,y = boston.data,boston.target
  51. # XGBoost训练过程
  52. X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=0)
  53. params = {
  54. 'booster': 'gbtree',
  55. 'objective': 'reg:gamma',
  56. 'gamma': 0.1,
  57. 'max_depth': 5,
  58. 'lambda': 3,
  59. 'subsample': 0.7,
  60. 'colsample_bytree': 0.7,
  61. 'min_child_weight': 3,
  62. 'silent': 1,
  63. 'eta': 0.1,
  64. 'seed': 1000,
  65. 'nthread': 4,
  66. }
  67. dtrain = xgb.DMatrix(X_train, y_train)
  68. model = xgb.train(params, dtrain, num_boost_round=500)
  69. # 对测试集进行预测
  70. dtest = xgb.DMatrix(X_test)
  71. ans = model.predict(dtest)
  72. # 显示重要特征
  73. plot_importance(model)
  74. plt.show()
  75. # ==============基于Scikit-learn接口的分类================
  76. from sklearn.datasets import load_iris
  77. import xgboost as xgb
  78. from xgboost import plot_importance
  79. from matplotlib import pyplot as plt
  80. from sklearn.model_selection import train_test_split
  81. from sklearn.metrics import accuracy_score
  82. # 加载样本数据集
  83. iris = load_iris()
  84. X,y = iris.data,iris.target
  85. X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=1234565) # 数据集分割
  86. # 训练模型
  87. model = xgb.XGBClassifier(max_depth=5, learning_rate=0.1, n_estimators=160, silent=True, objective='multi:softmax')
  88. model.fit(X_train, y_train)
  89. # 对测试集进行预测
  90. y_pred = model.predict(X_test)
  91. # 计算准确率
  92. accuracy = accuracy_score(y_test,y_pred)
  93. print("accuarcy: %.2f%%" % (accuracy*100.0))
  94. # 显示重要特征
  95. plot_importance(model)
  96. plt.show()
  97. # ================基于Scikit-learn接口的回归================
  98. import xgboost as xgb
  99. from xgboost import plot_importance
  100. from matplotlib import pyplot as plt
  101. from sklearn.model_selection import train_test_split
  102. from sklearn.datasets import load_boston
  103. boston = load_boston()
  104. X,y = boston.data,boston.target
  105. # XGBoost训练过程
  106. X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=0)
  107. model = xgb.XGBRegressor(max_depth=5, learning_rate=0.1, n_estimators=160, silent=True, objective='reg:gamma')
  108. model.fit(X_train, y_train)
  109. # 对测试集进行预测
  110. ans = model.predict(X_test)
  111. # 显示重要特征
  112. plot_importance(model)
  113. plt.show()

6.参数调优的一般方法

我们会使用和GBM中相似的方法。需要进行如下步骤:

1. 选择较高的学习速率(learning rate)。一般情况下,学习速率的值为0.1。但是,对于不同的问题,理想的学习速率有时候会在0.05到0.3之间波动。选择对应于此学习速率的理想决策树数量。XGBoost有一个很有用的函数“cv”,这个函数可以在每一次迭代中使用交叉验证,并返回理想的决策树数量。

2. 对于给定的学习速率和决策树数量,进行决策树特定参数调优(max_depth, min_child_weight, gamma, subsample, colsample_bytree)。在确定一棵树的过程中,我们可以选择不同的参数,待会儿我会举例说明。

3. xgboost的正则化参数的调优。(lambda, alpha)。这些参数可以降低模型的复杂度,从而提高模型的表现。

4. 降低学习速率,确定理想参数。

咱们一起详细地一步步进行这些操作。

第一步:确定学习速率和tree_based 参数调优的估计器数目。

为了确定boosting 参数,我们要先给其它参数一个初始值。咱们先按如下方法取值:

1、max_depth = 5 :这个参数的取值最好在3-10之间。我选的起始值为5,但是你也可以选择其它的值。起始值在4-6之间都是不错的选择。

2、min_child_weight = 1:在这里选了一个比较小的值,因为这是一个极不平衡的分类问题。因此,某些叶子节点下的值会比较小。

3、gamma = 0: 起始值也可以选其它比较小的值,在0.1到0.2之间就可以。这个参数后继也是要调整的。

4、subsample,colsample_bytree = 0.8: 这个是最常见的初始值了。典型值的范围在0.5-0.9之间。

5、scale_pos_weight = 1: 这个值是因为类别十分不平衡。

注意哦,上面这些参数的值只是一个初始的估计值,后继需要调优。这里把学习速率就设成默认的0.1。然后用xgboost中的cv函数来确定最佳的决策树数量。

第二步: max_depth 和 min_weight 参数调优

我们先对这两个参数调优,是因为它们对最终结果有很大的影响。首先,我们先大范围地粗调参数,然后再小范围地微调。

注意:在这一节我会进行高负荷的栅格搜索(grid search),这个过程大约需要15-30分钟甚至更久,具体取决于你系统的性能。你也可以根据自己系统的性能选择不同的值。

第三步:gamma参数调优

第四步:调整subsample 和 colsample_bytree 参数

第五步:正则化参数调优。

第6步:降低学习速率

最后,我们使用较低的学习速率,以及使用更多的决策树。我们可以用XGBoost中的CV函数来进行这一步工作。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/不正经/article/detail/280491
推荐阅读
相关标签
  

闽ICP备14008679号