当前位置:   article > 正文

机器学习之决策树_机器学习决策树

机器学习决策树

一、决策树的基本认识

决策树(Decision Tree)是在已知各种情况发生概率的基础上,通过构成决策树来求取净现值的期望值大于等于零的概率,评价项目风险,判断其可行性的决策分析方法,是直观运用概率分析的一种图解法。由于这种决策分支画成图形很像一棵树的枝干,故称决策树。在机器学习中,决策树是一个预测模型,他代表的是对象属性与对象值之间的一种映射关系。

二、算法简介

决策树是一种经典的机器学习算法,它通过对数据集进行递归地分割,构建一个树形结构,每个节点代表一个属性测试,每个分支代表一个测试结果,叶子节点表示最终的决策结果或类别。ID3、C4.5和CART是三种常见的决策树算法,下面简要介绍它们:

  1. ID3(Iterative Dichotomiser 3)

    • ID3是最早的决策树学习算法之一,由Ross Quinlan在1986年提出。
    • ID3算法使用信息增益作为属性选择的准则,即选择能够最大程度地降低数据集整体不确定性的属性作为当前节点的分裂属性。
    • 该算法在每个节点上都选择当前数据集中信息增益最大的属性进行分裂,直到所有属性都用完或者达到了停止条件(如所有样本属于同一类别)为止。
  2. C4.5

    • C4.5是ID3算法的改进版本,同样由Ross Quinlan于1993年提出。
    • 与ID3相比,C4.5算法使用信息增益比(Gain Ratio)来代替信息增益作为属性选择的准则。信息增益比对取值数目较多的属性进行了一定的惩罚,更倾向于选择取值较少、更简单的属性,以防止过拟合。
    • 此外,C4.5还能处理缺失值,并能够对连续值属性进行离散化处理。
  3. CART(Classification and Regression Trees)

    • CART是由Breiman等人于1984年提出的一种决策树算法,既可以用于分类(Classification)也可以用于回归(Regression)。
    • 与ID3和C4.5不同,CART算法是一种二叉树,每个非叶子节点只有两个分支,分别表示对应属性的取值为是或否。
    • CART算法通过基尼指数(Gini Index)来进行属性选择,即选择能够最大程度地降低数据集纯度(类别不确定性)的属性作为当前节点的分裂属性。
    • 对于分类问题,CART算法会递归地生成一个分类树,每个叶子节点代表一个类别;对于回归问题,CART算法会生成一个回归树,叶子节点代表一个数值。

这三种算法都是基于贪心策略构建决策树,它们在属性选择、处理缺失值、处理连续值等方面有所不同,适用于不同的数据情况和任务需求。

三、ID3算法

让我们考虑一个简单的二元分类数据集,关于天气状况以及是否适合打高尔夫球。

  1. 计算整个数据集的熵:

    根据“Play”和“Don't Play”的比例,计算整个数据集的熵。这表示了数据集的不确定性或混乱程度。
  2. 计算每个特征的信息增益:

    针对每个特征(Outlook、Temperature、Humidity、Wind),计算在该特征条件下数据集的熵,并计算信息增益。信息增益表示了在特征条件下对数据集的分类带来的纯度提升。
  3. 选择最佳分裂特征:

    从所有特征中选择具有最高信息增益的特征作为节点分裂特征。
  4. 递归构建决策树:

    以选择的分裂特征为节点,将数据集划分成子集,并对每个子集重复上述过程,直到满足停止条件为止。

通过计算每个特征的信息增益,我们可以选择具有最大信息增益的特征作为节点进行分裂。这样逐步构建决策树,直到满足停止条件(如达到最大深度或节点样本数少于阈值)。这就是ID3算法的基本过程。

以下是python代码实现:

  1. import pandas as pd
  2. from sklearn import tree
  3. from sklearn.model_selection import train_test_split
  4. from sklearn.metrics import accuracy_score
  5. import matplotlib.pyplot as plt
  6. # 创建数据集
  7. data = {
  8. 'Weather': ['Sunny', 'Sunny', 'Overcast', 'Rain', 'Rain', 'Rain', 'Overcast', 'Sunny', 'Sunny', 'Rain', 'Sunny', 'Overcast', 'Overcast', 'Rain'],
  9. 'Temperature': ['Hot', 'Hot', 'Hot', 'Mild', 'Cool', 'Cool', 'Cool', 'Mild', 'Cool', 'Mild', 'Mild', 'Mild', 'Hot', 'Mild'],
  10. 'Humidity': ['High', 'High', 'High', 'High', 'Normal', 'Normal', 'Normal', 'High', 'Normal', 'Normal', 'Normal', 'High', 'Normal', 'High'],
  11. 'Wind': ['Weak', 'Strong', 'Weak', 'Weak', 'Weak', 'Strong', 'Strong', 'Weak', 'Weak', 'Weak', 'Strong', 'Strong', 'Weak', 'Strong'],
  12. 'Play Golf': ['No', 'No', 'Yes', 'Yes', 'Yes', 'No', 'Yes', 'No', 'Yes', 'Yes', 'Yes', 'Yes', 'Yes', 'No']
  13. }
  14. df = pd.DataFrame(data)
  15. # 将分类特征转换为数字
  16. df_encoded = pd.get_dummies(df[['Weather', 'Temperature', 'Humidity', 'Wind']])
  17. # 分割数据集
  18. X = df_encoded
  19. y = df['Play Golf'].apply(lambda x: 1 if x == 'Yes' else 0)
  20. X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)
  21. # 创建决策树分类器(使用entropy作为分裂准则,这类似于ID3
  22. clf = tree.DecisionTreeClassifier(criterion='entropy')
  23. # 训练决策树
  24. clf.fit(X_train, y_train)
  25. # 预测
  26. y_pred = clf.predict(X_test)
  27. # 测试准确度
  28. accuracy = accuracy_score(y_test, y_pred)
  29. print(f"Test accuracy: {accuracy:.2%}")
  30. # 绘制决策树
  31. plt.figure(figsize=(12, 8))
  32. tree.plot_tree(clf, feature_names=list(X.columns), class_names=['No', 'Yes'], filled=True, fontsize=10)
  33. plt.show()

运行结果:

四、C4.5算法

同样以上述数据集为例。

  1. 计算整个数据集的熵:

    根据“Play”和“Don't Play”的比例,计算整个数据集的熵。这表示了数据集的不确定性或混乱程度。
  2. 计算每个特征的信息增益:

    针对每个特征(Outlook、Temperature、Humidity、Wind),计算在该特征条件下数据集的熵,并计算信息增益。信息增益表示了在特征条件下对数据集的分类带来的纯度提升。
  3. 选择最佳分裂特征:

    从所有特征中选择具有最高信息增益的特征作为节点分裂特征。
  4. 递归构建决策树:

    以选择的分裂特征为节点,将数据集划分成子集,并对每个子集重复上述过程,直到满足停止条件为止。

以下是python代码实现:

  1. from math import log
  2. def entropy(data):
  3. # 计算数据集的熵
  4. total_samples = len(data)
  5. label_counts = {}
  6. for sample in data:
  7. label = sample[-1]
  8. if label not in label_counts:
  9. label_counts[label] = 0
  10. label_counts[label] += 1
  11. entropy = 0
  12. for label in label_counts:
  13. probability = label_counts[label] / total_samples
  14. entropy -= probability * log(probability, 2)
  15. return entropy
  16. def split_data(data, feature_index):
  17. # 根据特征将数据集划分成子集
  18. split_data = {}
  19. for sample in data:
  20. value = sample[feature_index]
  21. if value not in split_data:
  22. split_data[value] = []
  23. split_data[value].append(sample)
  24. return split_data
  25. def information_gain(data, feature_index):
  26. # 计算特征的信息增益
  27. total_entropy = entropy(data)
  28. split_data_dict = split_data(data, feature_index)
  29. new_entropy = 0
  30. for value in split_data_dict:
  31. value_samples = split_data_dict[value]
  32. probability = len(value_samples) / len(data)
  33. new_entropy += probability * entropy(value_samples)
  34. information_gain = total_entropy - new_entropy
  35. return information_gain
  36. def intrinsic_value(data, feature_index):
  37. # 计算特征的固有值
  38. split_data_dict = split_data(data, feature_index)
  39. iv = 0
  40. for value in split_data_dict:
  41. probability = len(split_data_dict[value]) / len(data)
  42. iv -= probability * log(probability, 2)
  43. return iv
  44. def gain_ratio(data, feature_index):
  45. # 计算特征的信息增益比
  46. ig = information_gain(data, feature_index)
  47. iv = intrinsic_value(data, feature_index)
  48. gain_ratio = ig / iv if iv != 0 else 0
  49. return gain_ratio
  50. def choose_best_feature(data, features):
  51. # 选择信息增益比最高的特征作为节点分裂特征
  52. best_feature_index = -1
  53. best_gain_ratio = -1
  54. for idx, feature in enumerate(features):
  55. if feature == 'Play': # 最后一列是标签,跳过
  56. continue
  57. ratio = gain_ratio(data, idx)
  58. if ratio > best_gain_ratio:
  59. best_gain_ratio = ratio
  60. best_feature_index = idx
  61. return best_feature_index
  62. def majority_class(labels):
  63. # 返回子集中样本数最多的类别
  64. label_counts = {}
  65. for label in labels:
  66. if label not in label_counts:
  67. label_counts[label] = 0
  68. label_counts[label] += 1
  69. majority_label = max(label_counts, key=label_counts.get)
  70. return majority_label
  71. def build_tree(data, features):
  72. labels = [sample[-1] for sample in data]
  73. if len(set(labels)) == 1:
  74. return labels[0] # 所有样本属于同一类别,返回该类别
  75. if len(data[0]) == 1:
  76. return majority_class(labels) # 所有特征已经用完,返回子集中样本数最多的类别
  77. best_feature_index = choose_best_feature(data, features)
  78. best_feature = features[best_feature_index]
  79. decision_tree = {best_feature: {}}
  80. del features[best_feature_index]
  81. split_data_dict = split_data(data, best_feature_index)
  82. for value in split_data_dict:
  83. value_samples = split_data_dict[value]
  84. decision_tree[best_feature][value] = build_tree(value_samples, features[:])
  85. return decision_tree
  86. dataset = [
  87. ['Sunny', 85, 85, 'Weak', 'No'],
  88. ['Sunny', 80, 90, 'Strong', 'No'],
  89. ['Overcast', 83, 78, 'Weak', 'Yes'],
  90. ['Rain', 70, 96, 'Weak', 'Yes'],
  91. ['Rain', 68, 80, 'Weak', 'Yes'],
  92. ['Rain', 65, 70, 'Strong', 'No'],
  93. ['Overcast', 64, 65, 'Strong', 'Yes'],
  94. ['Sunny', 72, 95, 'Weak', 'No'],
  95. ['Sunny', 69, 70, 'Weak', 'Yes'],
  96. ['Rain', 75, 80, 'Weak', 'Yes'],
  97. ['Sunny', 75, 70, 'Strong', 'Yes'],
  98. ['Overcast', 72, 90, 'Strong', 'Yes'],
  99. ['Overcast', 81, 75, 'Weak', 'Yes'],
  100. ['Rain', 71, 80, 'Strong', 'No']
  101. ]
  102. headers = ['Outlook', 'Temperature', 'Humidity', 'Wind', 'Play']
  103. decision_tree = build_tree(dataset, headers[:-1]) # 构建决策树
  104. print(decision_tree)

运行结果:

{'Temperature': {85: 'No', 80: 'No', 83: 'Yes', 70: 'Yes', 68: 'Yes', 65: 'No', 64: 'Yes', 72: {'Outlook': {'Sunny': 'No', 'Overcast': 'Yes'}}, 69: 'Yes', 75: 'Yes', 81: 'Yes', 71: 'No'}}

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小舞很执着/article/detail/901498
推荐阅读
相关标签
  

闽ICP备14008679号