当前位置:   article > 正文

XGboost的多分类入门_xgb.xgbclassifier多列输出结果代表什么

xgb.xgbclassifier多列输出结果代表什么
  • 多分类情况下的参数:
xgb_params = {
    'learning_rate': 0.1,  # 步长
    'n_estimators':100,
    'max_depth': 6,  # 树的最大深度
    'objective': 'multi:softprob',
    'num_class': 3,
    'min_child_weight': 1,  # 决定最小叶子节点样本权重和,如果一个叶子节点的样本权重和小于min_child_weight则拆分过程结束。
    'gamma': 0,  # 指定了节点分裂所需的最小损失函数下降值。这个参数的值越大,算法越保守
    'silent': 0,  # 输出运行信息
    'subsample': 0.8,  # 每个决策树所用的子样本占总样本的比例(作用于样本)
    'colsample_bytree': 0.8,  # 建立树时对特征随机采样的比例(作用于特征)典型值:0.5-1
    'nthread': 4,
    'seed': 27}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13

把参数导入模型

model = xgb.XGBClassifier(**xgb_params)
model.fit(X_train,y_train)
  • 1
  • 2

网格搜索法

optimized_GBM = GridSearchCV(model, param_grid=param_test, scoring='roc_auc', cv=5, verbose=1)
  • 1

param_grid=(变量)

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/笔触狂放9/article/detail/97394
推荐阅读
相关标签
  

闽ICP备14008679号