赞
踩
决策树是一种树形结构,其中每个内部节点表示一个属性上的测试,每个分支代表一个测试输出,每个叶节点代表一种类别。
决策树是一种十分常用的分类方法,本文主要内容:
C4.5算法简介
算法描述
属性选择度量
算法剪枝
异常数据处理
代码示例
C4.5
是一系列用在机器学习和数据挖掘的分类问题中的算法。它的目标是监督学习:给定一个数据集,其中的每一个元组都能用一组属性值来描述,每一个元组属于一个互斥的类别中的某一类。C4.5
的目标是通过学习,找到一个从属性值到类别的映射关系,并且这个映射能用于对新的类别未知的实体进行分类。
C4.5
由J.Ross Quinlan
在ID3
的基础上提出的。ID3
算法用来构造决策树。决策树是一种类似流程图的树结构,其中每个内部节点(非树叶节点)表示在一个属性上的测试,每个分枝代表一个测试输出,而每个树叶节点存放一个类标号。一旦建立好了决策树,对于一个未给定类标号的元组,跟踪一条有根节点到叶节点的路径,该叶节点就存放着该元组的预测。决策树的优势在于不需要任何领域知识或参数设置,适合于探测性的知识发现。
从ID3
算法中衍生出了C4.5
和CART
两种算法,这两种算法在数据挖掘中都非常重要。下图就是一棵典型的C4.5
算法对数据集产生的决策树。 数据集如下图所示,它表示的是天气情况与去不去打高尔夫球之间的关系。
在数据集上通过C4.5
生成的决策树如下:
C4.5
并不一个算法,而是一组算法—C4.5
,非剪枝C4.5
和C4.5
规则。下图中的伪代码将给出C4.5
的基本工作流程:
- Function C4.5(R:包含连续属性的无类别属性集合,C:类别属性,S:训练集)
- Begin
- If S为空,返回一个值为Failure的单个节点;
- If S是由相同类别属性值的记录组成,
- 返回一个带有该值的单个节点;
- If R为空,则返回一个单节点,其值为在S的记录中找出的频率最高的类别属性值;
- [注意未出现错误则意味着是不适合分类的记录];
- For 所有的属性R(Ri) Do
- If 属性Ri为连续属性,则
- Begin
- sort(Ri属性值)
- 将Ri的最小值赋给A1:
- 将Ri的最大值赋给Am;
- For j From 1 To m-1 Do Aj=(A1+Aj+1)/2;
- 将Ri点的基于Aj(1<=j<=m-1划分的最大信息增益属性(Ri,S)赋给A;
- End;
- 将R中属性之间具有最大信息增益的属性(D,S)赋给D;
- 将属性D的值赋给{dj/j=1,2...m};
- 将分别由对应于D的值为dj的记录组成的S的子集赋给{sj/j=1,2...m};
- 返回一棵树,其根标记为D;树枝标记为d1,d2...dm;
- 再分别构造以下树:
- C4.5(R-{D},C,S1),C4.5(R-{D},C,S2)...C4.5(R-{D},C,Sm);
- End C4.5
-
我们可能有疑问,一个元组(数据集)本身有很多属性,我们怎么知道首先要对哪个属性进行判断,接下来要对哪个属性进行判断?换句话说,在上图中,我们怎么知道第一个要测试的属性是Outlook
,而不是Windy
?其实,能回答这些问题的一个概念就是属性选择度量。
属性选择度量又称分裂规则,因为它们决定给定节点上的元组如何分裂。属性选择度量提供了每个属性描述给定训练元组的秩评定,具有最好度量得分的属性被选作给定元组的分裂属性。目前比较流行的属性选择度量有--信息增益、增益率和Gini
指标。
信息增益实际上是ID3
算法中用来进行属性选择度量的。它选择具有最高信息增益的属性来作为节点N
的分裂属性。该属性使结果划分中的元组分类所需信息量最小。对D
中的元组分类所需的期望信息为下式:
Info(D)
又称为熵。现在假定按照属性A
划分D
中的元组,且属性A
将D
划分成v
个不同的类。在该划分之后,为了得到准确的分类还需要的信息由下面的式子度量:
信息增益定义为原来的信息需求(即仅基于类比例)与新需求(即对A划分之后得到的)之间的差,即:
我想很多人看到这个地方都觉得不是很好理解,所以我自己的研究了文献中关于这一块的描述,也对比了上面的三个公式,下面说说我自己的理解。
一般说来,对于一个具有多个属性的元组,用一个属性就将它们完全分开几乎不可能,否则的话,决策树的深度就只能是2
了。从这里可以看出,一旦我们选择一个属性A,假设将元组分成了两个部分A1
和A2
,由于A1
和A2
还可以用其它属性接着再分,所以又引出一个新的问题:接下来我们要选择哪个属性来分类?对D
中元组分类所需的期望信息是Info(D)
。
那么同理,当我们通过A
将D
划分成v
个子集
,之后,我们要对
的元组进行分类,需要的期望信息就是
,而一共有v个类,所以对v个集合再分类,需要的信息就是公式(2)
了。由此可知,如果公式(2)
越小,是不是意味着我们接下来对A分出来的几个集合再进行分类所需要的信息就越小?而对于给定的训练集,实际上Info(D)
已经固定了,所以选择信息增益最大的属性作为分裂点。
但是,使用信息增益的话其实是有一个缺点,那就是它偏向于具有大量值的属性。什么意思呢?就是说在训练集中,某个属性所取的不同值的个数越多,那么越有可能拿它来作为分裂属性。例如一个训练集中有10
个元组,对于某一个属相A
,它分别取1-10
这十个数,如果对A进行分裂将会分成10
个类,那么对于每一个类
,从而式(2)
为0
,该属性划分所得到的信息增益(3)
最大,但是很显然,这种划分没有意义。
正是基于此,ID3
后面的C4.5
采用了信息增益率这样一个概念。信息增益率使用“分裂信息”值将信息增益规范化。分类信息类似于Info(D)
,定义如下:
这个值表示通过将训练数据集D
划分成对应于属性A
测试的v
个输出的v
个划分产生的信息。信息增益率定义:
选择具有最大增益率的属性作为分裂属性。
Gini
指标在CART
中使用。Gini
指标度量数据划分或训练元组集D
的不纯度,定义为:
这里通过下面的数据集(均为离散值,对于连续值,下面有详细介绍)看下信息增益率节点选择:
上面的训练集有4
个属性,即属性集合A={OUTLOOK, TEMPERATURE, HUMIDITY, WINDY}
; 而类标签有2
个,即类标签集合C={Yes, No}
,分别表示适合户外运动和不适合户外运动,其实是一个二分类问题。
数据集D
包含14
个训练样本,其中属于类别“Yes”
的有9
个,属于类别“No”
的有5
个,则计算其信息熵:即公式(1)
的值:
下面对属性集中每个属性分别计算信息熵,如下所示:
根据上面的数据,我们可以计算选择第一个根结点所依赖的信息增益值,计算如下所示:
接下来,我们计算分裂信息度量SplitInfo
,此处记为H(V)
:
OUTLOOK属性
属性OUTLOOK
有3
个取值,其中Sunny
有5
个样本、Rainy
有5
个样本、Overcast
有4
个样本,则:
TEMPERATURE属性
属性TEMPERATURE有3
个取值,其中Hot
有4
个样本、Mild
有6
个样本、Cool
有4
个样本,则:
HUMIDITY属性
属性HUMIDITY
有2
个取值,其中Normal
有7
个样本、High
有7
个样本,则:
WINDY属性
属性WINDY
有2
个取值,其中True
有6
个样本、False
有8
个样本,则:
根据上面计算结果,我们可以计算信息增益率,如下所示:
根据计算得到的信息增益率进行选择属性集中的属性作为决策树结点,对该结点进行分裂。从上面的信息增益率IGR
可知OUTLOOK
的信息增益率最大,所以我们选其作为第一个节点。
在决策树的创建时,由于数据中的噪声和离群点,许多分枝反映的是训练数据中的异常。剪枝方法是用来处理这种过分拟合数据的问题。通常剪枝方法都是使用统计度量,剪去最不可靠的分枝。剪枝一般分两种方法:先剪枝和后剪枝。
先剪枝方法中通过提前停止树的构造(比如决定在某个节点不再分裂或划分训练元组的子集)而对树剪枝。一旦停止,这个节点就变成树叶,该树叶可能取它持有的子集最频繁的类作为自己的类。先剪枝有很多方法,比如:
当决策树达到一定的高度就停止决策树的生长;
到达此节点的实例具有相同的特征向量,而不必一定属于同一类,也可以停止生长;
到达此节点的实例个数小于某个阈值的时候也可以停止树的生长,不足之处是不能处理那些数据量比较小的特殊情况;
计算每次扩展对系统性能的增益,如果小于某个阈值就可以让它停止生长。先剪枝有个缺点就是视野效果问题,也就是说在相同的标准下,也许当前扩展不能满足要求,但更进一步扩展又能满足要求。这样会过早停止决策树的生长。
它由完全成长的树剪去子树而形成。通过删除节点的分枝并用树叶来替换它。树叶一般用子树中最频繁的类别来标记。后剪枝一般有两种方法:
基于误判的剪枝
这个思路很直接,完全的决策树不是过度拟合么,我再搞一个测试数据集来纠正它。对于完全决策树中的每一个非叶子节点的子树,我们尝试着把它替换成一个叶子节点,该叶子节点的类别我们用子树所覆盖训练样本中存在最多的那个类来代替,这样就产生了一个简化决策树,然后比较这两个决策树在测试数据集中的表现,如果简化决策树在测试数据集中的错误比较少,并且该子树里面没有包含另外一个具有类似特性的子树(所谓类似的特性,指的就是把子树替换成叶子节点后,其测试数据集误判率降低的特性),那么该子树就可以替换成叶子节点。该算法以bottom-up的方式遍历所有的子树,直至没有任何子树可以替换使得测试数据集的表现得以改进时,算法就可以终止。
悲观剪枝
第一种方法很直接,但是需要一个额外的测试数据集,能不能不要这个额外的数据集呢?为了解决这个问题,于是就提出了悲观剪枝。悲观剪枝就是递归得估算每个内部节点所覆盖样本节点的误判率。剪枝后该内部节点会变成一个叶子节点,该叶子节点的类别为原内部节点的最优叶子节点所决定。然后比较剪枝前后该节点的错误率来决定是否进行剪枝。该方法和前面提到的第一种方法思路是一致的,不同之处在于如何估计剪枝前分类树内部节点的错误率。
把一颗子树(具有多个叶子节点)的分类用一个叶子节点来替代的话,在训练集上的误判率肯定是上升的,但是在新数据上不一定。于是我们需要把子树的误判计算加上一个经验性的惩罚因子。对于一颗叶子节点,它覆盖了 个样本,其中有E个错误,那么该叶子节点的错误率为:
这个0.5
就是惩罚因子,那么一颗子树,它有L
个叶子节点,那么该子树的误判率估计为:
这样的话,我们可以看到一颗子树虽然具有多个子节点,但由于加上了惩罚因子,所以子树的误判率计算未必占到便宜。剪枝后内部节点变成了叶子节点,其误判个数J
也需要加上一个惩罚因子,变成J+0.5
。那么子树是否可以被剪枝就取决于剪枝后的错误J+0.5
在
的标准误差内。对于样本的误差率e
,我们可以根据经验把它估计成各种各样的分布模型,比如是二项式分布,或者正态分布。
那么一棵树对于一个数据来说,错误分类一个样本值为1
,正确分类一个样本值为0
,该树错误分类的概率(误判率)为
(可以通过公式(7)
统计出来),那么树的误判次数就是二项分布,我们可以估计出该树的误判次数均值和标准差:
其中,
把子树替换成叶子节点后,该叶子的误判次数也是一个伯努利分布,其中N
是到达该叶节点的数据个数,其概率误判率
为(J+0.5)/N,因此叶子节点的误判次数均值为:
使用训练数据,子树总是比替换为一个叶节点后产生的误差小,但是使用校正后有误差计算方法却并非如此,当子树的误判个数大过对应叶节点的误判个数一个标准差之后,就决定剪枝:
这个条件就是剪枝的标准。
通俗点讲,就是看剪枝后的错误率会不会变得很大(比剪枝前的错误率加上其标准差还大),如果剪枝后的错误率变得很高,则不剪枝,否则就剪枝。下面通过一个具体的实例来看一下到底是如何剪枝的。 例如:这是一个子决策树,其中 , , , , 为非叶子节点, , , , , , 为叶子节点,这里我们可以看出来N=样本总和80,其中A类55个样本,B类25个样本。
此时,只有节点
满足剪枝标准,我们就可以把节点
剪掉,即直接把
换成叶子节点A
。
但是并不一定非要大一个标准差,该方法被扩展成基于理想置信区间(confidence intervals, CI
)的剪枝方法,该方法将叶节点的错误率e
建模成为服从二项分布的随机变量.
对于一个置信区间阈值CI
,存在一个上界
,使得
以
的概率成立(对于C4.5
算法中默认的CI
值为0.25
),若
,则剪枝。更近一步,我们可以用正态分布来逼近e
(只要N
足够大),基于这些约束条件,C4.5
算法的期望误差的上界
(一般用Wilson score interval
)为:
式中z
的选择是基于理想置信区间,假设z
是一个拥有零均值和单位方差的正态随机变量,也就是N(0,1)
.为什么选取Wilson score interval
作为上界,主要因为该上界在少样本或者存在极端概率情况下的数据集都能有一些很好的性质。
数据预处理是指在主要的处理以前对数据进行的一些处理。比如讲连续数据如何离散化,对缺失值,异常值如何处理,等等。
离散化处理:将连续型的属性变量进行离散化处理,形成决策树的训练集,分三步:
1. 把需要处理的样本(对应根节点)或样本子集(对应子树)按照连续变量的大小从小到大进行排序;
2. 假设该属性对应的不同的属性值一共有N
个,那么总共有N-1
个可能的候选分割阈值点,每个候选的分割阈值点的值为上述排序后的属性值中两两前后连续元素的中点;
3. 用信息增益率选择最佳划分
缺失值:在某些情况下,可供使用的数据可能缺少某些属性的值。例如(x, y)
是样本集S
中的一个训练实例,
。但是其属性Fi
的值
未知。
处理策略:
1. 处理缺少属性值的一种策略是赋给它结点t所对应的训练实例中该属性的最常见值
2. 另外一种更复杂的策略是为Fi
的每个可能值赋予一个概率。例如,给定一个布尔属性Fi
,如果结点t
包含6
个已知
和4个
的实例,那么
的概率是0.6
,而
的概率是0.4
。于是,实例x
的60%
被分配到
的分支,40%
被分配到另一个分支。这些片断样例(fractional examples
)的目的是计算信息增益,另外,如果有第二个缺少值的属性必须被测试,这些样例可以在后继的树分支中被进一步细分。(C4.5
中使用)
3. 简单处理策略就是丢弃这些样本
优点:产生的分类规则易于理解且准确率较高。
缺点:在构造树的过程中,需要对数据集进行多次的顺序扫描和排序,因而导致算法的低效。
该代码在数据集iris
上用R
语言进行运行,前提需要先安装"RWeka"
, "party"
,"partykit"
这三个安装包。即运行下面代码:
- install.package("RWeka")
- install.package("party")
- install.package("partykit")
然后运行下面例子代码:
- library(RWeka)
- library(party)
- library(partykit)
- data(iris)
- ml<-J48(Species~.,data=iris)
- plot(ml)
代码与结果分析: 代码中前三行加载包不解释,第4行加载数据集iris
,第5
行调用Weka
中的函数J48
(即C4.5
),参数应用很明显,Species
为因变量,其余为自变量,数据集为iris
。构建的修剪树见下:
其中,结果第一行是花瓣的宽度小于等于0.6
,有setosa
花50
个样本,大于0.6
的情况下,看花瓣的宽度是否大于1.7
等等,对照树形结构图会更容易理解,相信聪明的你能够看懂。关于树形结果图中最后五个柱状图的横坐标表示:花的种类,列表示分类的的准确率。下面最后两行表示的是叶子节点的个数以及树的大小(总共多少个节点)。
至此,我们从C4.5
算法简介,算法描述,属性选择度量,算法剪枝,异常数据处理和代码示例六大方面进行了学习,希望对大家有所帮助。
♥点个赞再走呗♥
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。