当前位置:   article > 正文

机器学习:决策树(一) ——自己动手实现决策树和后剪枝_后剪枝算法

后剪枝算法

一、决策树(Decision Tree)介绍

     什么是决策树,其实字面意思挺简单的,就是通过样本的各个维度的数据来判断该样本的类别,比如下面这个就是决策树。

    图片来自周志华老师的西瓜书,这里的决策树通过西瓜的各个属性来判别是好瓜还是坏瓜。

    现在的任务就是构建这样一棵决策树:

        (一)应该先以哪个属性做判别?(找到令数据集区分的更好的属性)

        (二)是不是每条路径都以所有属性做支撑?(剪枝问题)

(一)、找到最好的特征(或称属性),共有三种算法

 1. ID3算法(ID意思是 Iterative dichotomiser, 迭代二分器)

    一般而言,随着划分过程不断进行,我们希望决策树的分支样本尽可能属于同一类别,即节点的“纯度”(purity)越来越高。

    在ID3算法中我们使用信息熵(information entropy)衡量纯度(定义如下),熵越小,纯度越高(记得高中时有学过熵增定理,道理一样的)。

      Entropy(D)=k=1Kpklog2pk

    其中,D是样本集,pk是第k类占比,共有K类 。

    ID3算法是以信息增益(information gain)来选择最好的特征的,下面的式子是以属性a作划分的信息增益。

      Gain(D,a)=Entropy(D)v=1V|Dv||D|Entropy(Dv)

    其中,v代表value,指数据集中属性a的取值,我们把不同取值的数据分开,分别计算它们的信息熵,加总即可得到以属性a划分后的信息熵。信息增益对应到决策树上就是父节点信息熵和它的各个子节点信息熵之和的差值。

    ID3选择的是信息增益最大的属性。

    ID3算法的缺点:

         信息增益对可取值数目较多的属性有所偏好,想象一下,假设一个属性的取值数目跟样本数量一样,即每个取值只有一个样本,这个时候Entropy(Dv)就是1log21=0,此时该属性的信息增益当然是最大的。

2. C4.5算法

    ID3和C4.5都是由Quinlan提出的算法,C4.5可以看作是ID3的升级版,它用来规避ID3算法偏好可取值数目较多的属性的缺点。

    方法就是通过信息增益率来选择最佳属性,其定义如下:

    Gain_ratio(D,a)=Gain(D,a)IV(a)

    IV(a)=v=1|Dv||D|log2|Dv||D| 

    我们可以来对比一下IV(a)和Entropy(D),事实上他们的计算方式是一样的,Entropy(D)是数据集D的标签列label的信息熵,我们希望纯度高,label信息熵小,IV(a)是数据集D的属性列a的信息熵,我们希望a的取值数少一些,也就是纯度高,a信息熵小。

    C4.5算法的目标是选择信息增益高于平均水平,且信息增益率最大的属性。

    C4.5的优点:

        规避了ID3算法偏好可取值数目较多的属性的缺点。

    C4.5的缺点:

        增益率对于可取值数目少的属性有所偏好,一般是先从获选划分属性中找出信息增益高于平均水平的属性,再从中选择增益率最高的。

3. CART算法[Breiman et al.,1984] (Classification And Regression Tree) 

    CART算法采用基尼值来衡量数据集纯度,定义如下:

    \operatorname{Gini}(p)=\sum_{k=1}^{K} p_{k}\left(1-p_{k}\right)=1-\sum_{k=1}^{K} p_{k}^{2}

    基尼值反映了从数据集D中随机抽取两个样本,其类别标记不一致的概率,因此,基尼值越小,数据集D的纯度越高。

    属性a的基尼指数定义为:

    Gini_index(D,a)=v=1V|Dv||D|Gini(Dv)

    C4.5算法选择的是基尼指数最小的属性。

4. 决策树的共有优缺点:

1)优点:

        有一定的抗噪能力,因为ID3使用的是所有样例的统计属性(比如,信息增益),这大大降低了对个别错误的训练样例的敏感性。

2)缺点:

        A.当遍历决策树空间时,ID3仅维护单一的当前假设。失去了表示所有一致假设所带来的优势,例如,它不能判断有多少个其他的决策树也是与现在的训练数据是一致的。

        B.基本的ID3算法在搜索中不进行回溯。每当在树的某一层次选择了一个属性进行测试,它不会再回溯重新考虑这个选择。所以,它易受无回溯的爬山搜索中的常见风险影响:收敛到局部最优的答案,而不是全局最优的。对于ID3算法,一个局部最优的答案对应着它在一条搜索路径上探索时选择的决策树。然而,这个局部最优的答案可能不如沿着另一条分支搜索到的更令人满意。后面我们讨论一个扩展,增加一种形式的回溯(后修剪决策树)。

        C.较短的树比较长的树优先。那些信息增益(增益率,基尼指数)高的属性更靠近根结点的树优先。

(二)、剪枝方法

 剪枝主要用来解决过拟合的问题,因为分支太多,太深了,模型的泛化能力就会下降。

1.预剪枝(prepruning)

    (1)当信息增益或者信息增益率小于某个阈值的时候,停止划分。

    (2)留出法:把数据划分成训练集和验证集,在要划分的时候看该划分能否使模型在验证集的精度度提升,若是,则划分,若否,则停止划分。

    缺点:

        预剪枝基于“贪心”思想禁止分支展开,决策树会有欠拟合的风险。

2.后剪枝(postpruning)

   对决策树进行深度优先搜索,对于能使验证集精度提高的剪枝,进行剪枝,否则保留分支。

    优点:

        一般情形下,后剪枝决策树的欠拟合风险很小,泛化能力由于预剪枝

    缺点:

        后剪枝过程是在生成完全决策树之后进行的,并且要子弟向上的对书中所有的非叶子节点进行注意考察,因此其训练的时间开销比未剪枝决策树和预剪枝决策树要大得多。

 二、代码实现

(一)创建树的过程

  1. import numpy as np
  2. #%%
  3. class Tree(object):
  4. def __init__(self,node_type,category=None,feature=None,\
  5. feature_idx=None,mydict=None):
  6. self.node_type = node_type # 节点类型
  7. self.category = category # 叶子节点表示的类,若是内部节点则为空
  8. self.feature = feature # 表示当前的树由第feature个特征进行划分
  9. if not mydict:
  10. self.mydict = {}
  11. else:
  12. self.mydict = mydict # 字典
  13. def add_subtree(self, key, subtree):
  14. self.mydict[key] = subtree
  15. def predict(self, x):
  16. # print("[DEGUB]:%s"%(x))
  17. if self.node_type == 'LEAF'\
  18. or x[self.feature] not in self.mydict:
  19. return self.category
  20. tree = self.mydict.get(x[self.feature])
  21. return tree.predict(x)
  22. def cal_entropy(x):
  23. x_value_list = set(x)
  24. entropy = 0.0
  25. for x_value in x_value_list:
  26. prob = float(x[x == x_value].shape[0]) / x.shape[0]
  27. entropy -= prob * np.log2(prob)
  28. return entropy
  29. # 计算条件熵H(label/attr)
  30. def cal_conditional_entropy(attr, label):
  31. attr_values = set(np.squeeze(attr))
  32. entropy = 0.0
  33. for value in attr_values:
  34. sub_label = label[attr == value]
  35. sub_entropy = cal_entropy(sub_label)
  36. entropy += (float(len(sub_label))/len(label))*sub_entropy
  37. return entropy
  38. def create_tree(data, label, features):
  39. # 1.如果训练集中所有数据均属于同一类,即可返回
  40. label_set = set(label)
  41. if len(label_set) == 1:
  42. category = label_set.pop()
  43. subtree = Tree('LEAF', category=category)
  44. print("[INFO]: create a leaf node, category is %s"%(category))
  45. return subtree
  46. # 2.如果特征集为空
  47. label_set = set(label)
  48. max_class = label[0]
  49. max_num = 0
  50. for each in label_set:
  51. class_num = label[label==each].shape[0]
  52. if class_num > max_num:
  53. max_class = each
  54. max_num = class_num
  55. if len(features) == 0:
  56. subtree = Tree('LEAF', category=max_class)
  57. print("[INFO]: create a leaf node, category is %s"%(max_class))
  58. return subtree
  59. # 3.找到信息增益最大的特征
  60. base_entropy = cal_entropy(label)
  61. best_feature = features[0]
  62. max_info_gain = 0
  63. for i in features:
  64. attr = data[:,i]
  65. info_gain = base_entropy - cal_conditional_entropy(attr, label)
  66. if info_gain > max_info_gain:
  67. best_feature = i
  68. max_info_gain = info_gain
  69. # 4.如果信息增益小于阈值,进行预剪枝
  70. if max_info_gain < 0.001:
  71. return Tree('LEAF', category=max_class)
  72. # 5.构建内部节点以及递归创造子树
  73. sub_features = list(filter(lambda x: x != best_feature, features))
  74. tree = Tree('INTERNAL', feature=best_feature, category=max_class)
  75. print("[INFO]: create a internal node,feature is %sth"%(best_feature))
  76. best_feature_values = set(data[:, best_feature])
  77. for value in best_feature_values:
  78. indexs = data[:, best_feature] == value
  79. sub_data = data[indexs]
  80. sub_label = label[indexs]
  81. sub_tree = create_tree(sub_data, sub_label, sub_features)
  82. tree.add_subtree(value, sub_tree)
  83. return tree
  84. def predict(test_data, tree):
  85. result = []
  86. for each in test_data:
  87. result.append(tree.predict(each))
  88. return np.array(result)

 (二)后剪枝代码的实现

  1. def post_pruning(val_data, val_label, dataset, tree, features):
  2. path = []
  3. DFS.val_data = val_data
  4. DFS.val_label = val_label
  5. DFS.dataset = dataset
  6. DFS.root = tree
  7. DFS.features = features
  8. DFS(tree, path)
  9. return tree
  10. def DFS(tree, path):
  11. if tree.node_type == "LEAF":
  12. print("[INFO]:post pruning, arrive at leaf node")
  13. return
  14. # 没有return,该节点是内部节点,检测该节点的子节点是不是都是叶子节点
  15. leafs_parent = True
  16. for sub_tree in tree.mydict.values():
  17. if sub_tree.node_type != "LEAF":
  18. leafs_parent = False
  19. break
  20. # 如果该节点的子节点全部是叶子节点
  21. if leafs_parent and len(path) > 0:
  22. process_leafs_parent(DFS.val_data,DFS.val_label,
  23. DFS.dataset, DFS.root, DFS.features,tree, path)
  24. # 如果该节点的子节点也是内部节点,继续递归
  25. else:
  26. for key, sub_tree in tree.mydict.items():
  27. path.append((DFS.features[tree.feature], key))
  28. DFS(sub_tree, path)
  29. path.pop()
  30. # 对子节点的递归结束,
  31. # 再次检测该节点的子节点是不是都是叶子节点
  32. leafs_parent = True
  33. for sub_tree in tree.mydict.values():
  34. if sub_tree.node_type != "LEAF":
  35. leafs_parent = False
  36. break
  37. # 如果该节点的子节点全部是叶子节点
  38. if leafs_parent and len(path) > 0:
  39. process_leafs_parent(DFS.val_data,DFS.val_label,
  40. DFS.dataset, DFS.root, DFS.features, tree, path)
  41. def process_leafs_parent(val_data,val_label,
  42. dataset, root, features, tree, path):
  43. # 在未剪枝的决策树上进行验证,并得出f1
  44. old_score = f1_score(val_label, predict(val_data, root),average='micro')
  45. # 将未剪枝的子树保存起来
  46. temp_tree = copy.deepcopy(tree)
  47. # 根据路径找到训练集中能到达该节点的数据
  48. df = pd.DataFrame(dataset, columns=features+['label'])
  49. query = str(path[0][0])+"=="+str(path[0][1])
  50. if len(path) >= 2:
  51. for each in path[1:]:
  52. query += " and "+str(each[0])+"=="+str(each[1])
  53. print(query)
  54. df = df.query(query)
  55. # 进行剪枝
  56. tree.category = Counter(df.iloc[:, -1]).most_common(1)[0][0]
  57. tree.node_type = "LEAF"
  58. tree.mydict = {}
  59. # 若剪枝后分数变低,那么还原子树
  60. new_score = f1_score(val_label, predict(val_data, root),average='micro')
  61. if(new_score < old_score):
  62. tree.category = temp_tree.category
  63. tree.node_type = temp_tree.node_type
  64. tree.mydict = temp_tree.mydict

 (三)使用

     这里使用iris数据集进行测试

  1. from sklearn.datasets import load_iris
  2. from tree_plotter.tree_plotter import create_plot
  3. from sklearn.metrics import classification_report
  4. from sklearn.model_selection import train_test_split
  5. data = load_iris()
  6. x = data['data']
  7. y = data['target']
  8. data_train, data_val, label_train, label_val = train_test_split(x,y,test_size=0.2)
  9. mytree = create_tree(data_train, label_train,[0,1,2,3])
  10. create_plot(mytree)
  11. post_pruning(data_val, label_val, np.c_[data_train, label_train], mytree,['a','b','c','d'])
  12. create_plot(mytree)
  13. print(classification_report(label_val, predict(data_val, mytree)))

     输出:

                              后剪枝之前                                                                                           后剪枝之后

     可以看到准确率有0.93。

     关于树的可视化,可以参考下面的链接。

三、总结

    1. 上述实现采用的是ID3算法,C4.5的实现在:戳这里

    2.  对于连续型属性值,我们需要进行二值化,可以参考:机器学习:决策树(二) ——对于连续值的二值化处理

    3.  对于决策树,我们可以进行可视化,可以参考:机器学习:决策树(三)——决策树的可视化

    4.  对应平时使用来讲,我们不用自己实现代码,可以直接调用skearn中已经实现好的决策树,详情请看:

        机器学习:决策树(四)——sklearn决策树的使用及其可视化

四、参考文献

    【1】《机器学习实战》Peter+Harrington

    【2】《机器学习》周志华

文章为学习总结,如果错误的地方,欢迎指出。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/我家自动化/article/detail/646854
推荐阅读
相关标签
  

闽ICP备14008679号