当前位置:   article > 正文

贝叶斯优化调参示例代码 (xgboost,lgbm)_贝叶斯优化lgbm代码

贝叶斯优化lgbm代码

先贴出教程链接。
Bayesian Optimization of XGBoost Parameters
https://www.kaggle.com/tilii7/bayesian-optimization-of-xgboost-parameters/notebook
衍生出来的:lgbm调参
https://www.kaggle.com/fabiendaniel/hyperparameter-tuning/notebook
再给出一个lgbm关于调参的建议:
https://github.com/Microsoft/LightGBM/blob/master/docs/Parameters-Tuning.rst
lgbm参数表:
https://github.com/Microsoft/LightGBM/blob/master/docs/Parameters.rst
参数比较少用gridsearch我觉得没问题。参数比较多,bayesian optimization绝对是主流。但是目前的话,针对lgbm我还没有做贝叶斯优化,感觉官网给的建议上修补好像也问题不大,之后当我发现了必须要做贝叶斯优化的时候我会回来把这些代码分析一遍的。
你们有需要做贝叶斯优化的,可以自行参考上面的链接代码,我觉得是足够的了。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/正经夜光杯/article/detail/742231
推荐阅读
相关标签
  

闽ICP备14008679号