当前位置:   article > 正文

机器学习实验报告(四)_机器学习实验报告代做

机器学习实验报告代做

决策树

一、决策树介绍

决策树(Decision Tree)是在已知各种情况发生概率的基础上,通过构成决策树来求取净现值的期望值大于等于零的概率,评价项目风险,判断其可行性的决策分析方法,是直观运用概率分析的一种图解法。由于这种决策分支画成图形很像一棵树的枝干,故称决策树。在机器学习中,决策树是一个预测模型,他代表的是对象属性与对象值之间的一种映射关系。Entropy = 系统的凌乱程度,使用算法ID3C4.5和C5.0生成树算法使用熵。这一度量是基于信息学理论中的概念。

决策树是一种树形结构,其中每个内部节点表示一个属性上的测试,每个分支代表一个测试输出,每个叶节点代表一种类别。

分类树(决策树)是一种十分常用的分类方法。它是一种监督学习,所谓监督学习就是给定一堆样本,每个样本都有一组属性和一个类别,这些类别是事先确定的,那么通过学习得到一个分类器,这个分类器能够对新出现的对象给出正确的分类。这样的机器学习就被称之为监督学习。

决策树是一个预测模型,它代表的是对象属性与对象值之间的一种映射关系。树中每个节点表示某个对象,而每个分叉路径则代表某个可能的属性值,而每个叶节点则对应从根节点到该叶节点所经历的路径所表示的对象的值。

从数据产生决策树的机器学习技术叫做决策树学习,通俗说就是决策树。

一个决策树包含三种类型的节点:

  1. 决策节点:通常用矩形框来表示
  2. 机会节点:通常用圆圈来表示
  3. 终结节点:通常用三角形来表示

决策树是一树状结构,它的每一个叶节点对应着一个分类,非叶节点对应着在某个属性上的划分,根据样本在该属性上的不同取值将其划分成若干个子集。对于非纯的叶节点,多数类的标号给出到达这个节点的样本所属的类。构造决策树的核心问题是在每一步如何选择适当的属性对样本做拆分。对一个分类问题,从已知类标记的训练样本中学习并构造出决策树是一个自上而下,分而治之的过程。

二、决策树的算法

三、信息熵的介绍

在这里介绍两个概念,分别是信息熵的公式和条件熵的公式:

决策树的划分依据是信息增益:

所谓的信息增益是指特征A对训练数据集D的信息增益g(D,A)定义为集合D的信息熵H(D)与特征A给定条件下D的信息条件熵H(D|A)之差,即公式为:

备注:信息增益表示得知特征X的信息而使得类Y的信息的不确定性减少的程度。

四、举例说明信息增益

假设是二叉树的时候,决策树一般决策结果为如下图:

在这里,为什么有自己的房子应该放在最开始的地方呢?我们可以通过信息增益的大小可知,根据上面信息增益的公式,我们套用一下:

然后我们让A1,A2,A3,A4分别表示年龄、有工作、有自己的房子和信贷情况四个特征,则计算出年龄的信息增益为:

同理我们可以计算出g(D,A2)=0.324,g(D,A3)=0.420,g(D,A4)=0.363,相比较来说特征A3的信息增益最大,所以放在最前面。

五、sklearn决策树的API

sklearn.tree.DecisionTreeClassifier(criterion='gini',max_deepth=None,random_state=None)
  • 在python中决策数中默认的是gini系数,也可以选择信息增益的熵'entropy'
  • max_depth:树的深度大小
  • random_state:随机数种子

如下我们使用泰坦尼克号的数据举例说明:

  1. # 首先导入需要的包
  2. from sklearn.model_selection import train_test_split, GridSearchCV
  3. from sklearn.preprocessing import StandardScaler
  4. from sklearn.metrics import classification_report
  5. from sklearn.tree import DecisionTreeClassifier, export_graphviz
  6. import pandas as pd

使用决策树进行预测:

  1. def descision():
  2. """
  3. 决策树对泰坦尼克号进行预测生死
  4. :return:None
  5. """
  6. titan = pd.read_csv("http://biostat.mc.vanderbilt.edu/wiki/pub/Main/DataSets/titanic.txt")
  7. # 处理数据,找出特征值和目标值
  8. x = titan[['pclass', 'age', 'sex']]
  9. y = titan['survived']
  10. print(x)
  11. # 缺失值处理
  12. x['age'].fillna(x['age'].mean(), inplace=True)
  13. # 分割数据集到训练集和测试集
  14. x_train, x_test, y_train, y_test = train_test_split(x, y, test_size=0.25)
  15. # 进行处理(特征工程)
  16. dict = DictVectorizer(sparse=False)
  17. x_train = dict.fit_transform(x_train.to_dict(orient="records"))
  18. print(dict.get_feature_names())
  19. x_test = dict.transform(x_test.to_dict(orient="records"))
  20. print(x_train)
  21. # 用决策树进行预测
  22. dec = DecisionTreeClassifier()
  23. dec.fit(x_train, y_train)
  24. # 预测准确率
  25. print("预测的准确率为:", dec.score(x_test, y_test))
  26. # 导出决策树的结构
  27. export_graphviz(dec, out_file="./tree.dot", feature_names=['age', 'pclass=1st', 'pclass=2nd', 'pclass=3rd', 'sex=female', 'sex=male'])
  28. if __name__=="__main__":
  29. descision()

可以看到得出的结果:

六、决策树的优缺点

优点:

  • 简单的理解和解释,树木可以可视化;
  • 需要很少的数据准备,其他技术通常需要归一化。

缺点:

  • 决策树学习者可以创建不能很好的推广数据的过于复杂的数,因为会产生过拟合。

改进:

  • 随机森林

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/2023面试高手/article/detail/354634
推荐阅读
相关标签
  

闽ICP备14008679号