当前位置:   article > 正文

各种树模型细节比较(分类树,回归树,随机森林,gbdt, xgboost)_分类树模型

分类树模型

前言

树模型实在是个庞大的家族,里面有许多细节值得注意,怕自己遗忘,写一期总结方便以后查询。先介绍三种划分方式:
信息增益:

  1. 计算数据集D中的经验熵H(D):
    在这里插入图片描述
  2. 计算特征A对数据集D的经验条件H(D/A):
    在这里插入图片描述
  3. 计算休息增益差:
    在这里插入图片描述
    其中D为样本容量,pi代表当前节点D中i类样本比例。设有K个类(1,2,…,K),Ck为属于为K类样本的样本数。设特征A有j个不同的取值(a1,…,aj),根据A的取值将D划分为D1,…,Dj(代表样本数)。

信息增益率:

  1. 分裂信息计算公式:
    在这里插入图片描述
  2. 信息增益率定义为:
    在这里插入图片描述
  3. 选择最大增益率作为分裂特征

Gini系数:
在CART树中使用,这里CART先不展开后文会写。

  1. 从根节点开始,对节点计算现有特征的基尼指数。
    在这里插入图片描述
  2. 对每一个特征,例如A,再对其每个可能的取值如a,根据样本点对A=a的结果划分为两个部分(这里假设A只有两个值,因为CART是二叉树):
    在这里插入图片描述
  3. 上面的式子表示的是不确定性的大小,越小表示数据纯度越高。

分类树

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小桥流水78/article/detail/806556
推荐阅读
  

闽ICP备14008679号