赞
踩
是新朋友吗?记得先点蓝字关注我哦~
作者介绍
知乎@王多鱼
京东的一名推荐算法攻城狮。
主要负责商品推荐的召回和排序模型的优化工作。
一、GBDT算法原理
Gradient Boosting Decision Tree(GBDT)是梯度提升决策树。GBDT模型所输出的结果是由其包含的若干棵决策树累加而成,每一棵决策树都是对之前决策树组合预测残差的拟合,是对之前模型结果的一种“修正”。梯度提升树既可以用于回归问题(此时被称为CART回归树),也可以被用于解决分类问题(此时被称为分类树)。
举个简单的例子:假如大华30岁,第一棵树拟合出的年龄为20岁,此时差距为10岁;第二棵树拟合的年龄为6岁,此时差距还有4岁;第三棵树拟合的年龄为3岁,此时的差距就只有1岁了。每一轮迭代,拟合的岁数误差都会减小。
在GBDT的迭代中,假设我们前一轮迭代得到的强学习器是Fm-1(x),损失函数是L(y,Fm-1(x)),本轮迭代的目标是找到一个CART回归树模型的弱学习器hm(x),让本轮的损失函数L(y,Fm-1(x))=L(y,Fm-1(x)+hm(x))最小。即在本轮迭代中找到一颗决策树,使得样本的损失尽量变得更小。
怎么找到本轮中的决策树是关键,GBDT是利用损失函数在当前模型的负梯度作为提升树算法的残差近似值, 去拟合一棵树。即:
GBDT算法步骤如下:
我们需要做的是计算rim,即计算公式(1)作为第m棵树样本新的label, 将数据(xi,rim(x))作为第m棵树的训练数据。通过使用 CART 回归树逼近rim,使得CART 回归树模型与label 之间的距离尽可能的接近。衡量距离有多种方式, 包括均方误差和Logloss。
下面给出 Logloss 损失函数的具体推导:
Step1:首先求解初始值F0 , 令其偏导等于 0。实现后是第一棵树需要拟合的残差。
令:
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。