当前位置:   article > 正文

python xgboost_机器学习集成学习之XGBoost(基于python实现)

xgboost evallist = [(dtest,‘eval‘), (dtrain,‘train‘)]

706e1fb815d84c37ce1058d9e9fdff9b.png

本文将介绍机器学习集成学习Boosting方法内三巨头之一的XGBoost,这个算法在早些时候机器学习比赛内曾经大放异彩,现在也是非常好用的一个机器学习集成算法。那么下一期我们将会分享XGBoost的改进版本LightGBM和CatBoost。喜欢我就关注我吧!

XGBoost是一个优化的分布式梯度增强库,旨在实现高效,灵活和便携。 它在Gradient Boosting框架下实现机器学习算法。 XGBoost提供了并行树提升(也称为GBDT,GBM),可以快速准确地解决许多数据科学问题。 相同的代码在主要的分布式环境(Hadoop,SGE,MPI)上运行,并且可以解决超过数十亿个样例的问题。XGBoost利用了核外计算并且能够使数据科学家在一个主机上处理数亿的样本数据。最终,将这些技术进行结合来做一个端到端的系统以最少的集群系统来扩展到更大的数据集上。

1. XGBoost原理介绍

由于我也是从0开始学习,也是经历过推导公式的波澜曲折,下面展示下我自己的推公式的手稿吧,希望能激励到大家能够对机器学习数据挖掘更加热爱!

2e8405a8c280d10898a1388ba5b9cd40.png
XGBoost公式1

3a287a309fa5550b610322c614f6c67e.png
XGBoost公式2
  1. 首先,我们的优化目标是:

我们的任务是找到一组树使得OBj最小,很明显这个优化目标OBj可以看成是样本的损失和模型的复杂度惩罚相加组成。

2. 我们使用追加法训练(Additive Training Boosting)

核心思想是:在已经训练好了

棵树后不再调整前
棵树,那么第t棵树可以表示为:

(1) 那此时如果我们对第t棵树训练,则目标函数为:

我们对上式进行泰勒二阶展开:

由于前t-1棵树已知,那么

(2) 我们已经对前半部分的损失函数做出了充分的讨论,但是后半部分的

还只是个符号并未定义,那我们现在就来定义

假设我们待训练的第t棵树有T个叶子结点,叶子结点的输出向量用

表示,假设
表示样本到叶子结点的映射,那么

那么我们定义 :

(3)我们的目标函数最终化简为:

我们找到了目标函数就需要对目标函数进行优化:

3. 生成树的策略:

我们刚刚的假设前提是已知前t-1棵树,因此我们现在来探讨怎么生成树。根据决策树的生成策略,再每次分裂节点的时候我们需要考虑能使得损失函数减小最快的节点,也就是分裂后损失函数减去分裂前损失函数我们称之为Gain:

Gain越大越能说明分裂后目标函数值减小越多。(因为从式子来看:

越大,反而OBj越小)

4. 寻找最优节点:

  • 精确贪心算法(Basic Exact Greedy Algorithm)
  • 近似算法(Approximate Algorithm)

在决策树(CART)里面,我们使用的是精确贪心算法(Basic Exact Greedy Algorithm),也就是将所有特征的所有取值排序(耗时耗内存巨大),然后比较每一个点的Gini,找出变化最大的节点。当特征是连续特征时,我们对连续值离散化,取两点的平均值为分割节点。可以看到,这里的排序算法需要花费大量的时间,因为要遍历整个样本所有特征,而且还要排序!!

e873e574339b99d878cd73c456e1863f.png
论文的精确贪心算法的伪代码

因此在XGBoost里面我们使用的是近似算法(Approximate Algorithm):

该算法首先根据特征分布的百分位数(percentiles)提出候选分裂点,将连续特征映射到由这些候选点分割的桶中,汇总统计信息并根据汇总的信息在提案中找到最佳解决方案。对于某个特征k,算法首先根据特征分布的分位数找到特征切割点的候选集合

,然后将特征k的值根据集合
划分到桶(bucket)中,接着对每个桶内的样本统计值G、H进行累加,最后在这些累计的统计量上寻找最佳分裂点。

7401c3a03cc2b5f5613ec3840ca62cd9.png
论文的近似算法的伪代码

再深入的研究读者可以查看:

Xgboost近似分位数算法_人工智能_anshuai_aw1的博客-CSDN博客​blog.csdn.net
43ea99716173c6eb566c08ab91d0427b.png
https://www.bilibili.com/video/BV1Ca4y1t7DS?p=11​www.bilibili.com https://arxiv.org/pdf/1603.02754.pdf​arxiv.org

2.XGBoost实战案例:

(1)引入基本工具库:

# 引入基本工具库

(2)XGBoost原生工具库的上手:

  1. import xgboost as xgb # 引入工具库
  2. # read in data
  3. dtrain = xgb.DMatrix('demo/data/agaricus.txt.train') # XGBoost的专属数据格式,但是也可以用dataframe或者ndarray
  4. dtest = xgb.DMatrix('demo/data/agaricus.txt.test') # # XGBoost的专属数据格式,但是也可以用dataframe或者ndarray
  5. # specify parameters via map
  6. param = {'max_depth':2, 'eta':1, 'objective':'binary:logistic' } # 设置XGB的参数,使用字典形式传入
  7. num_round = 2 # 使用线程数
  8. bst = xgb.train(param, dtrain, num_round) # 训练
  9. # make prediction
  10. preds = bst.predict(dtest) # 预测

(3)XGBoost的参数设置(括号内的名称为sklearn接口对应的参数名字)

推荐博客1:

python机器学习库xgboost--xgboost算法_人工智能_全栈工程师开发手册(原创)(腾讯内推)-CSDN博客​blog.csdn.net
c155043aa5257f6f236bae70851baa88.png

推荐官方文档:

https://xgboost.readthedocs.io/en/latest/parameter.html​xgboost.readthedocs.io

XGBoost的参数分为三种:

  • 通用参数:(两种类型的booster,因为tree的性能比线性回归好得多,因此我们很少用线性回归。)
    • booster:使用哪个弱学习器训练,默认gbtree,可选gbtree,gblinear 或dart
    • nthread:用于运行XGBoost的并行线程数,默认为最大可用线程数
    • verbosity:打印消息的详细程度。有效值为0(静默),1(警告),2(信息),3(调试)。
    • Tree Booster的参数:
      • eta(learning_rate):learning_rate,在更新中使用步长收缩以防止过度拟合,默认= 0.3,范围:[0,1];典型值一般设置为:0.01-0.2
      • gamma(min_split_loss):默认= 0,分裂节点时,损失函数减小值只有大于等于gamma节点才分裂,gamma值越大,算法越保守,越不容易过拟合,但性能就不一定能保证,需要平衡。范围:[0,∞]
      • max_depth:默认= 6,一棵树的最大深度。增加此值将使模型更复杂,并且更可能过度拟合。范围:[0,∞]
      • min_child_weight:默认值= 1,如果新分裂的节点的样本权重和小于min_child_weight则停止分裂 。这个可以用来减少过拟合,但是也不能太高,会导致欠拟合。范围:[0,∞]
      • max_delta_step:默认= 0,允许每个叶子输出的最大增量步长。如果将该值设置为0,则表示没有约束。如果将其设置为正值,则可以帮助使更新步骤更加保守。通常不需要此参数,但是当类极度不平衡时,它可能有助于逻辑回归。将其设置为1-10的值可能有助于控制更新。范围:[0,∞]
      • subsample:默认值= 1,构建每棵树对样本的采样率,如果设置成0.5,XGBoost会随机选择一半的样本作为训练集。范围:(0,1]
      • sampling_method:默认= uniform,用于对训练实例进行采样的方法。
        • uniform:每个训练实例的选择概率均等。通常将subsample> = 0.5 设置 为良好的效果。
        • gradient_based:每个训练实例的选择概率与规则化的梯度绝对值成正比,具体来说就是
          ,subsample可以设置为低至0.1,而不会损失模型精度。
      • colsample_bytree:默认= 1,列采样率,也就是特征采样率。范围为(0,1]
      • lambda(reg_lambda):默认=1,L2正则化权重项。增加此值将使模型更加保守。
      • alpha(reg_alpha):默认= 0,权重的L1正则化项。增加此值将使模型更加保守。
      • tree_method:默认=auto,XGBoost中使用的树构建算法。
        • auto:使用启发式选择最快的方法。
          • 对于小型数据集,exact将使用精确贪婪()。
          • 对于较大的数据集,approx将选择近似算法()。它建议尝试hist,gpu_hist,用大量的数据可能更高的性能。(gpu_hist)支持。external memory外部存储器。
        • exact:精确的贪婪算法。枚举所有拆分的候选点。
        • approx:使用分位数和梯度直方图的近似贪婪算法。
        • hist:更快的直方图优化的近似贪婪算法。(LightGBM也是使用直方图算法)
        • gpu_hist:GPU hist算法的实现。
      • scale_pos_weight:控制正负权重的平衡,这对于不平衡的类别很有用。Kaggle竞赛一般设置sum(negative instances) / sum(positive instances),在类别高度不平衡的情况下,将参数设置大于0,可以加快收敛。
      • num_parallel_tree:默认=1,每次迭代期间构造的并行树的数量。此选项用于支持增强型随机森林。
      • monotone_constraints:可变单调性的约束,在某些情况下,如果有非常强烈的先验信念认为真实的关系具有一定的质量,则可以使用约束条件来提高模型的预测性能。(例如params_constrained['monotone_constraints'] = "(1,-1)",(1,-1)我们告诉XGBoost对第一个预测变量施加增加的约束,对第二个预测变量施加减小的约束。)
    • Linear Booster的参数:
      • lambda(reg_lambda):默认= 0,L2正则化权重项。增加此值将使模型更加保守。归一化为训练示例数。
      • alpha(reg_alpha):默认= 0,权重的L1正则化项。增加此值将使模型更加保守。归一化为训练示例数。
      • updater:默认= shotgun。
        • shotgun:基于shotgun算法的平行坐标下降算法。使用“ hogwild”并行性,因此每次运行都产生不确定的解决方案。
        • coord_descent:普通坐标下降算法。同样是多线程的,但仍会产生确定性的解决方案。
      • feature_selector:默认= cyclic。特征选择和排序方法
        • cyclic:通过每次循环一个特征来实现的。
        • shuffle:类似于cyclic,但是在每次更新之前都有随机的特征变换。
        • random:一个随机(有放回)特征选择器。
        • greedy:选择梯度最大的特征。(贪婪选择)
        • thrifty:近似贪婪特征选择(近似于greedy)
      • top_k:要选择的最重要特征数(在greedy和thrifty内)
  • 任务参数(这个参数用来控制理想的优化目标和每一步结果的度量方法。)
    • objective:默认=reg:squarederror,表示最小平方误差。
      • reg:squarederror,最小平方误差。
      • reg:squaredlogerror,对数平方损失。12[ ( +1)− ( +1)]212[log(pred+1)−log(label+1)]2
      • reg:logistic,逻辑回归
      • reg:pseudohubererror,使用伪Huber损失进行回归,这是绝对损失的两倍可微选择。
      • binary:logistic,二元分类的逻辑回归,输出概率。
      • binary:logitraw:用于二进制分类的逻辑回归,逻辑转换之前的输出得分。
      • binary:hinge:二进制分类的铰链损失。这使预测为0或1,而不是产生概率。(SVM就是铰链损失函数)
      • count:poisson –计数数据的泊松回归,泊松分布的输出平均值。
      • survival:cox:针对正确的生存时间数据进行Cox回归(负值被视为正确的生存时间)。
      • survival:aft:用于检查生存时间数据的加速故障时间模型。
      • aft_loss_distribution:survival:aft和aft-nloglik度量标准使用的概率密度函数。
      • multi:softmax:设置XGBoost以使用softmax目标进行多类分类,还需要设置num_class(类数)
      • multi:softprob:与softmax相同,但输出向量,可以进一步重整为矩阵。结果包含属于每个类别的每个数据点的预测概率。
      • rank:pairwise:使用LambdaMART进行成对排名,从而使成对损失最小化。
      • rank:ndcg:使用LambdaMART进行列表式排名,使标准化折让累积收益(NDCG)最大化。
      • rank:map:使用LambdaMART进行列表平均排名,使平均平均精度(MAP)最大化。
      • reg:gamma:使用对数链接进行伽马回归。输出是伽马分布的平均值。
      • reg:tweedie:使用对数链接进行Tweedie回归。
      • 自定义损失函数和评价指标:
Custom Objective and Evaluation Metric​xgboost.readthedocs.io
    • eval_metric:验证数据的评估指标,将根据目标分配默认指标(回归均方根,分类误差,排名的平均平均精度),用户可以添加多个评估指标
      • rmse,均方根误差; rmsle:均方根对数误差; mae:平均绝对误差;mphe:平均伪Huber错误;logloss:负对数似然; error:二进制分类错误率;
      • merror:多类分类错误率; mlogloss:多类logloss; auc:曲线下面积; aucpr:PR曲线下的面积;ndcg:归一化累计折扣;map:平均精度;
    • seed :随机数种子,[默认= 0]。
  • 命令行参数(这里不说了,因为很少用命令行控制台版本)

(4)XGBoost的调参说明:

参数调优的一般步骤:

  • 1.确定(较大)学习速率和提升参数调优的初始值
  • 2.max_depth 和 min_child_weight 参数调优
  • 3.gamma参数调优
  • 4.subsample 和 colsample_bytree 参数优
  • 5.正则化参数alpha调优
  • 6.降低学习速率和使用更多的决策树

(5)XGBoost详细攻略:

具体的api请查看:

Python API Reference​xgboost.readthedocs.io

推荐github:

https://github.com/dmlc/xgboost/tree/master/demo/guide-python​github.com
  1. 安装XGBoost
  1. 方式1:pip3 install xgboost
  2. 方式2:pip install xgboost

2. 数据接口(XGBoost可处理的数据格式DMatrix)

  1. # 1.LibSVM文本格式文件
  2. dtrain = xgb.DMatrix('train.svm.txt')
  3. dtest = xgb.DMatrix('test.svm.buffer')
  4. # 2.CSV文件(不能含类别文本变量,如果存在文本变量请做特征处理如one-hot)
  5. dtrain = xgb.DMatrix('train.csv?format=csv&label_column=0')
  6. dtest = xgb.DMatrix('test.csv?format=csv&label_column=0')
  7. # 3.NumPy数组
  8. data = np.random.rand(5, 10) # 5 entities, each contains 10 features
  9. label = np.random.randint(2, size=5) # binary target
  10. dtrain = xgb.DMatrix(data, label=label)
  11. # 4.scipy.sparse数组
  12. csr = scipy.sparse.csr_matrix((dat, (row, col)))
  13. dtrain = xgb.DMatrix(csr)
  14. # pandas数据框dataframe
  15. data = pandas.DataFrame(np.arange(12).reshape((4,3)), columns=['a', 'b', 'c'])
  16. label = pandas.DataFrame(np.random.randint(2, size=4))
  17. dtrain = xgb.DMatrix(data, label=label)

笔者推荐:先保存到XGBoost二进制文件中将使加载速度更快,然后再加载进来

  1. # 1.保存DMatrix到XGBoost二进制文件中
  2. dtrain = xgb.DMatrix('train.svm.txt')
  3. dtrain.save_binary('train.buffer')
  4. # 2. 缺少的值可以用DMatrix构造函数中的默认值替换:
  5. dtrain = xgb.DMatrix(data, label=label, missing=-999.0)
  6. # 3.可以在需要时设置权重:
  7. w = np.random.rand(5, 1)
  8. dtrain = xgb.DMatrix(data, label=label, missing=-999.0, weight=w)

3. 参数的设置方式:

  1. # 加载并处理数据
  2. df_wine = pd.read_csv('https://archive.ics.uci.edu/ml/machine-learning-databases/wine/wine.data',header=None)
  3. df_wine.columns = ['Class label', 'Alcohol','Malic acid', 'Ash','Alcalinity of ash','Magnesium', 'Total phenols',
  4. 'Flavanoids', 'Nonflavanoid phenols','Proanthocyanins','Color intensity', 'Hue','OD280/OD315 of diluted wines','Proline']
  5. df_wine = df_wine[df_wine['Class label'] != 1] # drop 1 class
  6. y = df_wine['Class label'].values
  7. X = df_wine[['Alcohol','OD280/OD315 of diluted wines']].values
  8. from sklearn.model_selection import train_test_split # 切分训练集与测试集
  9. from sklearn.preprocessing import LabelEncoder # 标签化分类变量
  10. le = LabelEncoder()
  11. y = le.fit_transform(y)
  12. X_train,X_test,y_train,y_test = train_test_split(X,y,test_size=0.2,random_state=1,stratify=y)
  13. dtrain = xgb.DMatrix(X_train, label=y_train)
  14. dtest = xgb.DMatrix(X_test)
  15. # 1.Booster 参数
  16. params = {
  17. 'booster': 'gbtree',
  18. 'objective': 'multi:softmax', # 多分类的问题
  19. 'num_class': 10, # 类别数,与 multisoftmax 并用
  20. 'gamma': 0.1, # 用于控制是否后剪枝的参数,越大越保守,一般0.10.2这样子。
  21. 'max_depth': 12, # 构建树的深度,越大越容易过拟合
  22. 'lambda': 2, # 控制模型复杂度的权重值的L2正则化项参数,参数越大,模型越不容易过拟合。
  23. 'subsample': 0.7, # 随机采样训练样本
  24. 'colsample_bytree': 0.7, # 生成树时进行的列采样
  25. 'min_child_weight': 3,
  26. 'silent': 1, # 设置成1则没有运行信息输出,最好是设置为0.
  27. 'eta': 0.007, # 如同学习率
  28. 'seed': 1000,
  29. 'nthread': 4, # cpu 线程数
  30. 'eval_metric':'auc'
  31. }
  32. plst = params.items()
  33. # evallist = [(dtest, 'eval'), (dtrain, 'train')] # 指定验证集

4. 训练

  1. # 2.训练
  2. num_round = 10
  3. bst = xgb.train( plst, dtrain, num_round)
  4. #bst = xgb.train( plst, dtrain, num_round, evallist )

5. 保存模型

  1. # 3.保存模型
  2. bst.save_model('0001.model')
  3. # dump model
  4. bst.dump_model('dump.raw.txt')
  5. # dump model with feature map
  6. #bst.dump_model('dump.raw.txt', 'featmap.txt')

6 . 加载保存的模型

  1. # 4.加载保存的模型:
  2. bst = xgb.Booster({'nthread': 4}) # init model
  3. bst.load_model('0001.model') # load data

7. 设置早停机制

  1. # 5.也可以设置早停机制(需要设置验证集)
  2. train(..., evals=evals, early_stopping_rounds=10)

8. 预测

  1. # 6.预测
  2. ypred = bst.predict(dtest)

9. 绘图

  1. # 1.绘制重要性
  2. xgb.plot_importance(bst)
  3. # 2.绘制输出树
  4. #xgb.plot_tree(bst, num_trees=2)
  5. # 3.使用xgboost.to_graphviz()将目标树转换为graphviz
  6. #xgb.to_graphviz(bst, num_trees=2)

4d5e6fd9436716b59abf11a52d4d7b4e.png

(6)实战案例:

  1. 分类案例
  1. from sklearn.datasets import load_iris
  2. import xgboost as xgb
  3. from xgboost import plot_importance
  4. from matplotlib import pyplot as plt
  5. from sklearn.model_selection import train_test_split
  6. from sklearn.metrics import accuracy_score # 准确率
  7. # 加载样本数据集
  8. iris = load_iris()
  9. X,y = iris.data,iris.target
  10. X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=1234565) # 数据集分割
  11. # 算法参数
  12. params = {
  13. 'booster': 'gbtree',
  14. 'objective': 'multi:softmax',
  15. 'num_class': 3,
  16. 'gamma': 0.1,
  17. 'max_depth': 6,
  18. 'lambda': 2,
  19. 'subsample': 0.7,
  20. 'colsample_bytree': 0.75,
  21. 'min_child_weight': 3,
  22. 'silent': 0,
  23. 'eta': 0.1,
  24. 'seed': 1,
  25. 'nthread': 4,
  26. }
  27. plst = params.items()
  28. dtrain = xgb.DMatrix(X_train, y_train) # 生成数据集格式
  29. num_rounds = 500
  30. model = xgb.train(plst, dtrain, num_rounds) # xgboost模型训练
  31. # 对测试集进行预测
  32. dtest = xgb.DMatrix(X_test)
  33. y_pred = model.predict(dtest)
  34. # 计算准确率
  35. accuracy = accuracy_score(y_test,y_pred)
  36. print("accuarcy: %.2f%%" % (accuracy*100.0))
  37. # 显示重要特征
  38. plot_importance(model)
  39. plt.show()

a57c94edf6fd8d9d51ffcbad466c053f.png

ebb4c4ef9a188484029bc5f916909b71.png

2. 回归案例

  1. import xgboost as xgb
  2. from xgboost import plot_importance
  3. from matplotlib import pyplot as plt
  4. from sklearn.model_selection import train_test_split
  5. from sklearn.datasets import load_boston
  6. from sklearn.metrics import mean_squared_error
  7. # 加载数据集
  8. boston = load_boston()
  9. X,y = boston.data,boston.target
  10. # XGBoost训练过程
  11. X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=0)
  12. params = {
  13. 'booster': 'gbtree',
  14. 'objective': 'reg:squarederror',
  15. 'gamma': 0.1,
  16. 'max_depth': 5,
  17. 'lambda': 3,
  18. 'subsample': 0.7,
  19. 'colsample_bytree': 0.7,
  20. 'min_child_weight': 3,
  21. 'silent': 1,
  22. 'eta': 0.1,
  23. 'seed': 1000,
  24. 'nthread': 4,
  25. }
  26. dtrain = xgb.DMatrix(X_train, y_train)
  27. num_rounds = 300
  28. plst = params.items()
  29. model = xgb.train(plst, dtrain, num_rounds)
  30. # 对测试集进行预测
  31. dtest = xgb.DMatrix(X_test)
  32. ans = model.predict(dtest)
  33. # 显示重要特征
  34. plot_importance(model)
  35. plt.show()

5ae866e241a2e668d302e494272e8ec6.png

(7)XGBoost调参(结合sklearn网格搜索)

代码参考:

XGBoost和LightGBM的参数以及调参​www.jianshu.com
905c1311f0d3923f08b29846aece909e.png
  1. import xgboost as xgb
  2. import pandas as pd
  3. from sklearn.model_selection import train_test_split
  4. from sklearn.model_selection import GridSearchCV
  5. from sklearn.metrics import roc_auc_score
  6. iris = load_iris()
  7. X,y = iris.data,iris.target
  8. col = iris.target_names
  9. train_x, valid_x, train_y, valid_y = train_test_split(X, y, test_size=0.3, random_state=1) # 分训练集和验证集
  10. parameters = {
  11. 'max_depth': [5, 10, 15, 20, 25],
  12. 'learning_rate': [0.01, 0.02, 0.05, 0.1, 0.15],
  13. 'n_estimators': [500, 1000, 2000, 3000, 5000],
  14. 'min_child_weight': [0, 2, 5, 10, 20],
  15. 'max_delta_step': [0, 0.2, 0.6, 1, 2],
  16. 'subsample': [0.6, 0.7, 0.8, 0.85, 0.95],
  17. 'colsample_bytree': [0.5, 0.6, 0.7, 0.8, 0.9],
  18. 'reg_alpha': [0, 0.25, 0.5, 0.75, 1],
  19. 'reg_lambda': [0.2, 0.4, 0.6, 0.8, 1],
  20. 'scale_pos_weight': [0.2, 0.4, 0.6, 0.8, 1]
  21. }
  22. xlf = xgb.XGBClassifier(max_depth=10,
  23. learning_rate=0.01,
  24. n_estimators=2000,
  25. silent=True,
  26. objective='multi:softmax',
  27. num_class=3 ,
  28. nthread=-1,
  29. gamma=0,
  30. min_child_weight=1,
  31. max_delta_step=0,
  32. subsample=0.85,
  33. colsample_bytree=0.7,
  34. colsample_bylevel=1,
  35. reg_alpha=0,
  36. reg_lambda=1,
  37. scale_pos_weight=1,
  38. seed=0,
  39. missing=None)
  40. gs = GridSearchCV(xlf, param_grid=parameters, scoring='accuracy', cv=3)
  41. gs.fit(train_x, train_y)
  42. print("Best score: %0.3f" % gs.best_score_)
  43. print("Best parameters set: %s" % gs.best_params_ )

3. 结语:

经过以上的分享,我们的xgboost已经研究的足够深入了,希望xgboost能够帮助到大家的机器学习数据挖掘任务。那么下一期我们将会分享XGBoost的改进版本LightGBM和CatBoost。喜欢我就关注我吧!我们下期见!

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/菜鸟追梦旅行/article/detail/97317
推荐阅读
相关标签
  

闽ICP备14008679号