赞
踩
LightGBM 的参数 class_weight = balanced
时, 样本权重是这样计算的 n_samples / (n_classes * np.bincount(y))
。np.bincount()
就是统计每一种取值的数量。对某个类别的样本,权重是 n_sample / (n_classes* 该类别样本总数)
。
如果每个类别的数量相同,都是 n_samples / n_classes
,那么得到的每个样本的权重就都是1。文档中也说了,默认情况下,每个样本的权重是1。
同样,手动设置样本权重时,可以参考上面这个公式,保持让所有样本权重的和等于n_samples。
按照这种方式,样本数量少于均值的类别,权重会大于1。类别越少,权重越大。
计算loss时,实际上是一个batch中每个样本的loss求均值。
求均值,就相当于默认每个样本对loss的影响是相同的。
如果某一类样本较多,这类样本自然会对loss影响更大,对梯度的影响更大,最终得到的局部最优更倾向于拟合样本多的类别。
手动的增大或减小样本权重,实际上就是在计算loss时,增加或减少不同样本对loss的影响,从而影响梯度,以及最终获得的局部最优。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。