赞
踩
O(1 / sketch_eps)
number of bins. Compared to directly select number of bins, this comes with theoretical guarantee with sketch accuracy.最大化 off_ks + 0.8(off_ks-train_ks)
1、训练xgb模型是否需要去除变量共线性?
a:需要。要去掉相互替代性比较强的变量,一个可能不好的影响是,可能在使用xgb的feature_importance进行特征筛选时,可能几个相关性较强的变量的特征重要性会相互影响。【例:只用f1变量和s类变量时,f1变量的特征重要性为10;用f1,f2,...,f10和s类变量时,f类变量全是1】
2、两层的xgb,跟逻辑回归模型很接近
3、xgb vs lgb
3.1 xgb在做树节点的分裂时,会遍历特征的所有取值;lgb在分裂时,会先分箱再遍历分箱节点。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。