赞
踩
xgb_params = {
'learning_rate': 0.1, # 步长
'n_estimators':100,
'max_depth': 6, # 树的最大深度
'objective': 'multi:softprob',
'num_class': 3,
'min_child_weight': 1, # 决定最小叶子节点样本权重和,如果一个叶子节点的样本权重和小于min_child_weight则拆分过程结束。
'gamma': 0, # 指定了节点分裂所需的最小损失函数下降值。这个参数的值越大,算法越保守
'silent': 0, # 输出运行信息
'subsample': 0.8, # 每个决策树所用的子样本占总样本的比例(作用于样本)
'colsample_bytree': 0.8, # 建立树时对特征随机采样的比例(作用于特征)典型值:0.5-1
'nthread': 4,
'seed': 27}
把参数导入模型
model = xgb.XGBClassifier(**xgb_params)
model.fit(X_train,y_train)
网格搜索法
optimized_GBM = GridSearchCV(model, param_grid=param_test, scoring='roc_auc', cv=5, verbose=1)
param_grid=(变量)
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。