当前位置:   article > 正文

机器学习——决策树特征选择准则

机器学习——决策树特征选择准则

机器学习——决策树特征选择准则

决策树是一种强大的机器学习模型,它可以用于分类和回归任务。决策树通过树状结构对数据进行分类,每个内部节点表示一个特征,每个叶节点表示一个类别或一个数值。在决策树构建的过程中,特征的选择准则起着至关重要的作用。本篇博客将介绍决策树模型以及常用的特征选择准则,包括熵和条件熵、信息增益、信息增益比和基尼指数,并通过Python代码实现。

1. 决策树模型

决策树是一种基于树状结构进行决策的模型,它通过一系列的特征测试将数据集分割成不同的子集,直到数据集中的所有样本都属于同一个类别或达到预定义的停止条件为止。决策树有两种类型:分类树和回归树。在分类树中,叶节点表示类别标签;而在回归树中,叶节点表示数值。

2. 特征选择准则

2.1 熵和条件熵

熵是表示随机变量不确定性的度量,定义为:

H ( X ) = − ∑ i = 1 n p ( x i ) log ⁡ p ( x i ) H(X) = -\sum_{i=1}^{n} p(x_i) \log p(x_i) H(X)=i=1np(xi)logp(xi)

其中, p ( x i ) p(x_i) p(xi)是随机变量 X X X取值为 x i x_i xi的概率。

条件熵是在已知随机变量 Y Y Y的条件下,随机变量 X X X的不确定性,定义为:

H ( X ∣ Y ) = − ∑ i = 1 n ∑ j = 1 m p ( x i , y j ) log ⁡ p ( x i ∣ y j ) H(X|Y) = -\sum_{i=1}^{n} \sum_{j=1}^{m} p(x_i, y_j) \log p(x_i|y_j) H(XY)=i=1nj=1mp(xi,yj)logp(xiyj)

其中, p ( x i , y j ) p(x_i, y_j) p(xi,yj) X X X取值为 x i x_i xi Y Y Y取值为 y j y_j yj的联合概率, p ( x i ∣ y j ) p(x_i|y_j) p(xiyj)是在已知 Y Y Y的条件下, X X X取值为 x i x_i xi的条件概率。

2.2 信息增益

信息增益是特征选择准则中常用的指标,表示在已知某个特征的条件下,对数据集分类的不确定性减少的程度。信息增益越大,说明特征对分类的贡献越大。信息增益的计算公式为:

Gain ( D , A ) = H ( D ) − H ( D ∣ A ) \text{Gain}(D, A) = H(D) - H(D|A) Gain(D,A)=H(D)H(DA)

其中, D D D是数据集, A A A是某个特征, H ( D ) H(D) H(D)是数据集 D D D的熵, H ( D ∣ A ) H(D|A) H(DA)是在已知特征 A A A的条件下,数据集 D D D的条件熵。

2.3 信息增益比

信息增益比是信息增益与特征自身熵的比值,用于解决信息增益偏向选择取值较多的特征的问题。信息增益比的计算公式为:

Gain_ratio ( D , A ) = Gain ( D , A ) H A ( D ) \text{Gain\_ratio}(D, A) = \frac{\text{Gain}(D, A)}{H_A(D)} Gain_ratio(D,A)=HA(D)Gain(D,A)

其中, H A ( D ) H_A(D) HA(D)是特征 A A A的熵。

2.4 基尼指数

基尼指数是衡量数据集纯度的指标,定义为数据集中随机抽取两个样本,类别不一致的概率。基尼指数越小,数据集的纯度越高。基尼指数的计算公式为:

G i n i ( D ) = ∑ k = 1 ∣ Y ∣ p k ( 1 − p k ) Gini(D) = \sum_{k=1}^{|\mathcal{Y}|} p_k (1 - p_k) Gini(D)=k=1Ypk(1pk)

其中, ∣ Y ∣ |\mathcal{Y}| Y是类别的个数, p k p_k pk是数据集 D D D中属于类别 k k k的样本的比例。

3. Python实现

接下来,让我们通过Python代码实现一个简单的决策树模型,并使用信息增益作为特征选择准则。我们将使用DecisionTreeClassifier类来构建决策树,并在西瓜数据集上进行分类。

from sklearn.datasets import load_iris
from sklearn.tree import DecisionTreeClassifier, plot_tree
from sklearn.model_selection import train_test_split
from sklearn.metrics import accuracy_score
import matplotlib.pyplot as plt

# 加载西瓜数据集
iris = load_iris()
X, y = iris.data, iris.target

# 划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)

# 构建决策树模型
clf = DecisionTreeClassifier(criterion='entropy', random_state=42)
clf.fit(X_train, y_train)

# 在测试集上进行预测
y_pred = clf.predict(X_test)

# 计算准确率
accuracy = accuracy_score(y_test, y_pred)
print("Accuracy:", accuracy)

# 绘制决策树可视化图形
plt.figure(figsize=(12, 8))
plot_tree(clf, filled=True, feature_names=iris.feature_names, class_names=iris.target_names)
plt.show()

  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29

在这里插入图片描述

运行以上代码,将得到决策树模型在测试集上的准确率。在这个例子中,我们使用了iris数据集,采用信息增益作为特征选择准则。

结论

本篇博客介绍了决策树模型以及常用的特征选择准则,包括熵和条件熵、信息增益、信息增益比和基尼指数。这些特征选择准则在决策树的构建过程中起着关键作用,帮助选择最优的特征来进行节点的分裂,从而提高模型的分类性能。

在Python实现部分,我们使用DecisionTreeClassifier类构建了一个简单的决策树模型,并在iris数据集上进行了分类实验。通过实验结果,我们可以看到决策树模型在测试集上达到了较高的准确率,这表明特征选择准则的选择对模型的性能具有重要影响。

总的来说,决策树模型是一种简单且有效的机器学习模型,特征选择准则的选择对决策树的构建和分类性能具有重要影响。在实际应用中,我们需要根据具体问题的特点和数据集的情况来选择合适的特征选择准则,以获得更好的分类结果。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/繁依Fanyi0/article/detail/331077
推荐阅读
相关标签
  

闽ICP备14008679号