当前位置:   article > 正文

决策树算法案例:泰坦尼克号乘客生存预测_泰坦尼克号决策树分析

泰坦尼克号决策树分析

决策树算法案例:泰坦尼克号乘客生存预测

1 泰坦尼克号数据

在泰坦尼克号和titanic2数据帧描述泰坦尼克号上的个别乘客的生存状态。这里使用的数据集是由各种研究人员开始的。其中包括许多研究人员创建的旅客名单,由Michael A. Findlay编辑。我们提取的数据集中的特征是票的类别,存活,乘坐班,年龄,登陆,home.dest,房间,票,船和性别。

数据:http://biostat.mc.vanderbilt.edu/wiki/pub/Main/DataSets/titanic.txt

经过观察数据得到:

  • 1 乘坐班是指乘客班(1,2,3),是社会经济阶层的代表。

  • 2 其中age数据存在缺失。

2 步骤分析

  • 1.获取数据
  • 2.数据基本处理
    • 2.1 确定特征值,目标值
    • 2.2 缺失值处理
    • 2.3 数据集划分
  • 3.特征工程(字典特征抽取)
  • 4.机器学习(决策树)
  • 5.模型评估

3 代码过程

  • 导入需要的模块
  1. import pandas as pd
  2. import numpy as np
  3. from sklearn.feature_extraction import DictVectorizer
  4. from sklearn.model_selection import train_test_split
  5. from sklearn.tree import DecisionTreeClassifier, export_graphviz
  • 1.获取数据
  1. # 1、获取数据
  2. titan = pd.read_csv("http://biostat.mc.vanderbilt.edu/wiki/pub/Main/DataSets/titanic.txt")
  • 2.数据基本处理

    • 2.1 确定特征值,目标值
    1. x = titan[["pclass", "age", "sex"]]
    2. y = titan["survived"]
    • 2.2 缺失值处理
    1. # 缺失值需要处理,将特征当中有类别的这些特征进行字典特征抽取
    2. x['age'].fillna(x['age'].mean(), inplace=True)
    • 2.3 数据集划分
    x_train, x_test, y_train, y_test = train_test_split(x, y, random_state=22)
    
  • 3.特征工程(字典特征抽取)

特征中出现类别符号,需要进行one-hot编码处理(DictVectorizer)

x.to_dict(orient="records") 需要将数组特征转换成字典数据

  1. # 对于x转换成字典数据x.to_dict(orient="records")
  2. # [{"pclass": "1st", "age": 29.00, "sex": "female"}, {}]
  3. transfer = DictVectorizer(sparse=False)
  4. x_train = transfer.fit_transform(x_train.to_dict(orient="records"))
  5. x_test = transfer.fit_transform(x_test.to_dict(orient="records"))
  • 4.决策树模型训练和模型评估

决策树API当中,如果没有指定max_depth那么会根据信息熵的条件直到最终结束。这里我们可以指定树的深度来进行限制树的大小

  1. # 4.机器学习(决策树)
  2. estimator = DecisionTreeClassifier(criterion="entropy", max_depth=5)
  3. estimator.fit(x_train, y_train)
  4. # 5.模型评估
  5. estimator.score(x_test, y_test)
  6. estimator.predict(x_test)

决策树的结构是可以直接显示

运行代码:

  1. import pandas as pd
  2. import numpy as np
  3. from sklearn.feature_extraction import DictVectorizer
  4. from sklearn.model_selection import train_test_split
  5. from sklearn.tree import DecisionTreeClassifier, export_graphviz
  6. # 1.获取数据
  7. titan = pd.read_csv('../data/titanic.csv')
  8. titan.head()
  9. # 2.数据基本处理
  10. # 2.1 确定特征值、目标值
  11. x = titan[['Pclass', 'Age', 'Sex']]
  12. y = titan['Survived']
  13. # 2.2 缺失值处理
  14. # 缺失值需要处理,将特征当中有类别的这些特征进行字典特征抽取
  15. x['Age'].fillna(x['Age'].mean(), inplace=True)
  16. # 2.3 数据集划分
  17. x_train, x_test, y_train, y_test = train_test_split(x, y, random_state=22)
  18. # 3. 特征工程
  19. transfer = DictVectorizer(sparse=False)
  20. x_train = transfer.fit_transform(x_train.to_dict(orient="records"))
  21. x_test = transfer.fit_transform(x_test.to_dict(orient="records"))
  22. # 4. 机器学习(决策树)
  23. estimator = DecisionTreeClassifier(criterion='entropy', max_depth=5)
  24. estimator.fit(x_train, y_train)
  25. # 5. 模型评估
  26. estimator.score(x_test, y_test) # 准确率
  27. estimator.predict(x_test)

运行结果:

3 决策树可视化

3.1 保存树的结构到dot文件

  • sklearn.tree.export_graphviz() 该函数能够导出DOT格式
    • tree.export_graphviz(estimator,out_file='tree.dot’,feature_names=[‘’,’’])
export_graphviz(estimator, out_file="./data/tree.dot", feature_names=['age', 'pclass=1st', 'pclass=2nd', 'pclass=3rd', '女性', '男性'])

dot文件当中的内容如下

  1. digraph Tree {
  2. node [shape=box] ;
  3. 0 [label="petal length (cm) <= 2.45\nentropy = 1.584\nsamples = 112\nvalue = [39, 37, 36]"] ;
  4. 1 [label="entropy = 0.0\nsamples = 39\nvalue = [39, 0, 0]"] ;
  5. 0 -> 1 [labeldistance=2.5, labelangle=45, headlabel="True"] ;
  6. 2 [label="petal width (cm) <= 1.75\nentropy = 1.0\nsamples = 73\nvalue = [0, 37, 36]"] ;
  7. 0 -> 2 [labeldistance=2.5, labelangle=-45, headlabel="False"] ;
  8. 3 [label="petal length (cm) <= 5.05\nentropy = 0.391\nsamples = 39\nvalue = [0, 36, 3]"] ;
  9. 2 -> 3 ;
  10. 4 [label="sepal length (cm) <= 4.95\nentropy = 0.183\nsamples = 36\nvalue = [0, 35, 1]"] ;
  11. 3 -> 4 ;
  12. 5 [label="petal length (cm) <= 3.9\nentropy = 1.0\nsamples = 2\nvalue = [0, 1, 1]"] ;
  13. 4 -> 5 ;
  14. 6 [label="entropy = 0.0\nsamples = 1\nvalue = [0, 1, 0]"] ;
  15. 5 -> 6 ;
  16. 7 [label="entropy = 0.0\nsamples = 1\nvalue = [0, 0, 1]"] ;
  17. 5 -> 7 ;
  18. 8 [label="entropy = 0.0\nsamples = 34\nvalue = [0, 34, 0]"] ;
  19. 4 -> 8 ;
  20. 9 [label="petal width (cm) <= 1.55\nentropy = 0.918\nsamples = 3\nvalue = [0, 1, 2]"] ;
  21. 3 -> 9 ;
  22. 10 [label="entropy = 0.0\nsamples = 2\nvalue = [0, 0, 2]"] ;
  23. 9 -> 10 ;
  24. 11 [label="entropy = 0.0\nsamples = 1\nvalue = [0, 1, 0]"] ;
  25. 9 -> 11 ;
  26. 12 [label="petal length (cm) <= 4.85\nentropy = 0.191\nsamples = 34\nvalue = [0, 1, 33]"] ;
  27. 2 -> 12 ;
  28. 13 [label="entropy = 0.0\nsamples = 1\nvalue = [0, 1, 0]"] ;
  29. 12 -> 13 ;
  30. 14 [label="entropy = 0.0\nsamples = 33\nvalue = [0, 0, 33]"] ;
  31. 12 -> 14 ;
  32. }

那么这个结构不能看清结构,所以可以在一个网站上显示

3.2 网站显示结构

将dot文件内容复制到该网站当中显示

3.5 决策树总结

  • 优点:
    • 简单的理解和解释,树木可视化。
  • 缺点:
    • 决策树学习者可以创建不能很好地推广数据的过于复杂的树,容易发生过拟合。
  • 改进:
    • 减枝cart算法
    • 随机森林(集成学习的一种)

注:企业重要决策,由于决策树很好的分析能力,在决策过程应用较多, 可以选择特征

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/Monodyee/article/detail/237124
推荐阅读
相关标签
  

闽ICP备14008679号