当前位置:   article > 正文

机器学习(二):基于XGBoost的分类与预测_xgboost分类问题

xgboost分类问题

XGBoost介绍

xgboost的安装、参数说明

XGBoost是2016年由华盛顿大学陈天奇老师带领开发的一个可扩展机器学习系统。严格意义上讲XGBoost并不是一种模型,而是一个可供用户轻松解决分类、回归或排序问题的软件包。它内部实现了梯度提升树(GBDT)模型,并对模型中的算法进行了诸多优化,在取得高精度的同时又保持了极快的速度,在一段时间内成为了国内外数据挖掘、机器学习领域中的大规模杀伤性武器。

更重要的是,XGBoost在系统优化和机器学习原理方面都进行了深入的考虑。毫不夸张的讲,XGBoost提供的可扩展性,可移植性与准确性推动了机器学习计算限制的上限,该系统在单台机器上运行速度比当时流行解决方案快十倍以上,甚至在分布式系统中可以处理十亿级的数据。

其主要优点:

  • 简单易用。相对其他机器学习库,用户可以轻松使用XGBoost并获得相当不错的效果。
  • 高效可扩展。在处理大规模数据集时速度快效果好,对内存等硬件资源要求不高。
  • 鲁棒性强。相对于深度学习模型不需要精细调参便能取得接近的效果。
  • XGBoost内部实现提升树模型,可以自动处理缺失值。

主要缺点:

  • 相对于深度学习模型无法对时空位置建模,不能很好地捕获图像、语音、文本等高维数据。
  • 在拥有海量训练数据,并能找到合适的深度学习模型时,深度学习的精度可以遥遥领先XGBoost。

XGBoost的重要参数

xgboost函数的主要调参参数

重要参数:
  • num_round(最大迭代次数,没有默认值,必须要自己设定)
  • seed(随机数种子,默认值为0)
  • objective(任务目标,默认值为reg:linear)具体取值可查看help文档
  • 二分类可设置为“binary:logistic”,其子模型为树,只是最后会将case的权重做Logistic变换以获得预测概率值
  • 多分类可设置为“multi:softmax”,处理方式与二分类相同,只是用了softmax函数将权重转换为概率
  • 回归可采用“reg:linear”
  • max_depth(树的最大深度,默认值为6):越大则树模型越复杂、越容易过拟合
  • min_child_weight(叶节点中所有观测权重和的阈值,默认值为1):小于该阈值时,树就不会再分裂;越大则模型越保守(不易过拟合)
  • colsample_bytree(变量抽样比例,默认值为1):越大则计算越耗时、树模型精度越高(但也可能导致过拟合)
次重要参数:
  • eta(学习率,默认值为0.3):为了防止过拟合,更新过程中用到的收缩步长。在每次提升计算之后,算法会直接获得新特征的权重, eta通过缩减特征的权重使提升计算过程更加保守。eta越大则模型越容易过拟合
  • gamma(划分叶节点的损失变化量阈值,默认值为0) :越大则模型越保守
  • lambda(L2正则项系数,默认值为1):越大则模型越保守
  • alpha(L1正则项系数,默认值为0):越大则模型越保守
  • scale_pos_weight(处理类别不平衡的参数,默认值为1)
  • subsample(观测值的抽样比例,默认值为1):越大则模型越容易过拟合

若在scikit-learn框架下实现XGBoost时的重要参数

1.eta[默认0.3]
通过为每一颗树增加权重,提高模型的鲁棒性。
典型值为0.01-0.2。

2.min_child_weight[默认1]
决定最小叶子节点样本权重和。
这个参数可以避免过拟合。当它的值较大时,可以避免模型学习到局部的特殊样本。
但是如果这个值过高,则会导致模型拟合不充分。

3.max_depth[默认6]
这个值也是用来避免过拟合的。max_depth越大,模型会学到更具体更局部的样本。
典型值:3-10

4.max_leaf_nodes
树上最大的节点或叶子的数量。
可以替代max_depth的作用。
这个参数的定义会导致忽略max_depth参数。

5.gamma[默认0]
在节点分裂时,只有分裂后损失函数的值下降了,才会分裂这个节点。Gamma指定了节点分裂所需的最小损失函数下降值。 这个参数的值越大,算法越保守。这个参数的值和损失函数息息相关。

6.max_delta_step[默认0]
这参数限制每棵树权重改变的最大步长。如果这个参数的值为0,那就意味着没有约束。如果它被赋予了某个正值,那么它会让这个算法更加保守。
但是当各类别的样本十分不平衡时,它对分类问题是很有帮助的。

7.subsample[默认1]
这个参数控制对于每棵树,随机采样的比例。
减小这个参数的值,算法会更加保守,避免过拟合。但是,如果这个值设置得过小,它可能会导致欠拟合。
典型值:0.5-1

8.colsample_bytree[默认1]
用来控制每棵随机采样的列数的占比(每一列是一个特征)。
典型值:0.5-1

9.colsample_bylevel[默认1]
用来控制树的每一级的每一次分裂,对列数的采样的占比。
subsample参数和colsample_bytree参数可以起到相同的作用,一般用不到。

10.lambda[默认1]
权重的L2正则化项。(和Ridge regression类似)。
这个参数是用来控制XGBoost的正则化部分的。虽然大部分数据科学家很少用到这个参数,但是这个参数在减少过拟合上还是可以挖掘出更多用处的。

11.alpha[默认1]
权重的L1正则化项。(和Lasso regression类似)。
可以应用在很高维度的情况下,使得算法的速度更快。

12.scale_pos_weight[默认1]
在各类别样本十分不平衡时,把这个参数设定为一个正值,可以使算法更快收敛。

ps:必须处理定性变量!进行独热编码。不必处理缺失值。

算法实战

参考链接

基于天气数据集的XGBoost分类实战

import numpy as np 
import pandas as pd

import matplotlib.pyplot as plt
import seaborn as sns

data = pd.read_csv('train.csv')
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7

数据的各个特征描述如下:
在这里插入图片描述

## 进行简单的数据查看,我们可以利用 .head() 头部.tail()尾部
data.head()
data = data.fillna(-1)#发现有缺失值,对缺失值用-1填充
## 利用value_counts函数查看训练集标签的数量
pd.Series(data['RainTomorrow']).value_counts()##发现数据不平衡
  • 1
  • 2
  • 3
  • 4
  • 5
简单可视化
## 选取三个特征与标签组合的散点可视化
sns.pairplot(data=data[['Rainfall',
'Evaporation',
'Sunshine'] + ['RainTomorrow']], diag_kind='hist', hue= 'RainTomorrow')
plt.show()
  • 1
  • 2
  • 3
  • 4
  • 5

在这里插入图片描述
从上图可以发现,在2D情况下不同的特征组合对于第二天下雨与不下雨的散点分布,以及大概的区分能力。相对的Sunshine与其他特征的组合更具有区分能力

for col in data[numerical_features].columns:
    if col != 'RainTomorrow':
        sns.boxplot(x='RainTomorrow', y=col, saturation=0.5,
  • 1
  • 2
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/繁依Fanyi0/article/detail/807535
推荐阅读
相关标签
  

闽ICP备14008679号