赞
踩
先贴出教程链接。
Bayesian Optimization of XGBoost Parameters
https://www.kaggle.com/tilii7/bayesian-optimization-of-xgboost-parameters/notebook
衍生出来的:lgbm调参
https://www.kaggle.com/fabiendaniel/hyperparameter-tuning/notebook
再给出一个lgbm关于调参的建议:
https://github.com/Microsoft/LightGBM/blob/master/docs/Parameters-Tuning.rst
lgbm参数表:
https://github.com/Microsoft/LightGBM/blob/master/docs/Parameters.rst
参数比较少用gridsearch我觉得没问题。参数比较多,bayesian optimization绝对是主流。但是目前的话,针对lgbm我还没有做贝叶斯优化,感觉官网给的建议上修补好像也问题不大,之后当我发现了必须要做贝叶斯优化的时候我会回来把这些代码分析一遍的。
你们有需要做贝叶斯优化的,可以自行参考上面的链接代码,我觉得是足够的了。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。