当前位置:   article > 正文

机器学习——决策树之连续值处理_决策树连续值处理方法

决策树连续值处理方法

一、连续属性离散化

连续属性就是像:0.697、0.774、0.634等的数字。 连续属性取值数目非有限,无法直接进行划分。这里采用二分法对连续属性进行处理。

我的数据集

 

 

第一步 

将连续属性a在样本集D上出现的n个不同的取值从小到大排列,记为a^{1},a^{2},\cdots ,a^{n}。基于划分点t,可将D分为子集D_{t}^{+}D_{t}^{-},其中D_{t}^{-}包含那些在属性a上取值不大于t的样本,D_{t}^{+}包含那些在属性a上取值大于t的样本。考虑包含n-1个元素的候选划分点集合

T_{a}=\left \{ \frac{a^{i}+a^{i+1}}{2} |1\leqslant i\leqslant n-1\right \}

即把区间[a^{i},a^{i+1})的中位点\left ( a^{i}+a^{i+1} \right )/2 作为 候选划分点

将连续属性绩点在样本集D上出现的17个不同的取值从小到大排序

2.801        2.998        3.169        3.184        3.190        3.318        3.373        3.425        3.462

3.789        3.893        4.009        4.151        4.238        4.312        4.413        4.423

计算候选划分点集合

2.900        3.083        3.176        3.187        3.254        3.346        3.399        3.444        

3.630        3.845        3.951        4.080        4.194        4.275        4.363        4.418 

 第二步

采用离散属性值方法,计算这些划分点的增益,选取最优的划分点进行样本集合的划分 :

其中Gain(D,a,t)是样本集D基于划分点t二分后的信息增益,于是,就可以选择使Gain(D,a,t)最大化的划分点。

对于上面的数据集,有8个推荐,9个不推荐,信息熵为

Ent(D) = -\sum_{k-1}^{2}p_{k}log_{2}p_{k} = -(\frac{8}{17}log_{2}\frac{8}{17}+\frac{9}{17}log_{2}\frac{9}{17}) = 0.998 

 对属性绩点,取划分点t_{0} = 3.630,则:

D(t>t_{0}) = \left \{ 1,2,4,5,6,8,13,14 \right \},其中推荐6个,不推荐2个

Ent(D(t>t_{0})) = -(\frac{6}{8}log_{2}\frac{6}{8}+\frac{2}{8}log_{2}\frac{2}{8}) = 0.811 

D(t<t_{0}) = \left \{ 3,7,9,10,11,12,15,16,17 \right \},其中推荐2个,不推荐7个

Ent(D(t<t_{0})) = -(\frac{2}{9}log_{2}\frac{2}{9}+\frac{7}{9}log_{2}\frac{7}{9}) = 0.764

Gain(D,a,t) = 0.998-(\frac{8}{17}\times 0.811+\frac{9}{17}\times 0.764)=0.212 

计算每个划分点的信息增益,得到最大信息增益为:0.366,对应划分点为3.346

与离散属性不同,若当前结点划分属性为连续属性,该属性还可以作为其后代结点的划分属性 

 二、代码实现

这里只展现处理连续值相关代码,完整代码请点击百度网盘链接下载 

创建数据集

  1. def createDataSet():
  2. dataSet = [
  3. ['班长',4.312,'党员','沿海','是']
  4. , ['其他',4.238,'党员','贫困县','是']
  5. , ['班长',3.373,'党员','山区','是']
  6. , ['班长',3.798,'党员','贫困县','是']
  7. , ['团支书',4.413,'党员','沿海','是']
  8. , ['团支书',4.009,'党员','山区','是']
  9. , ['班长',3.893,'党员','贫困县','是']
  10. , ['团支书',3.318,'党员','山区','否']
  11. , ['团支书',3.184,'团员','山区','否']
  12. , ['团支书',2.801,'党员','沿海','否']
  13. , ['其他',3.425,'党员','山区','否']
  14. , ['其他',3.169,'团员','贫困县','否']
  15. , ['其他',4.423,'党员','沿海','否']
  16. , ['班长',4.151,'团员','沿海','否']
  17. , ['班长',3.462,'党员','沿海','否']
  18. , ['班长',3.190,'团员','山区','否']
  19. , ['团支书',2.998,'党员','山区','否']
  20. ]
  21. labels = ['担任班委情况','绩点','政治面貌','生源地',]
  22. # 特征对应的所有可能的情况
  23. labels_full = {}
  24. for i in range(len(labels)):
  25. labelList = [example[i] for example in dataSet]
  26. uniqueLabel = set(labelList)
  27. labels_full[labels[i]] = uniqueLabel
  28. return dataSet, labels, labels_full

 按照给定数值,将数据集划分为不大于和大于两部分

  1. def splitDataSetForSeries(dataSet, axis, value):
  2. # 用来保存不大于划分值的集合
  3. eltDataSet = []
  4. # 用来保存大于划分值的集合
  5. gtDataSet = []
  6. # 进行划分,保留该特征值
  7. for feat in dataSet:
  8. if (feat[axis] <= value):
  9. eltDataSet.append(feat)
  10. else:
  11. gtDataSet.append(feat)
  12. return eltDataSet, gtDataSet

计算连续值的信息增益 

  1. def calcInfoGainForSeries(dataSet, i, baseEntropy):
  2. #baseEntropy基础信息熵
  3. # 记录最大的信息增益
  4. maxInfoGain = 0.0
  5. # 最好的划分点
  6. bestMid = -1
  7. # 得到数据集中所有的当前特征值列表
  8. featList = [example[i] for example in dataSet]
  9. # 得到分类列表
  10. classList = [example[-1] for example in dataSet]
  11. dictList = dict(zip(featList, classList))
  12. # 将其从小到大排序,按照连续值的大小排列
  13. sortedFeatList = sorted(dictList.items(), key=operator.itemgetter(0))
  14. print(sortedFeatList)
  15. # 计算连续值有多少个
  16. numberForFeatList = len(dataSet)
  17. # 计算划分点,保留三位小数
  18. midFeatList = [round((sortedFeatList[i][0] + sortedFeatList[i+1][0])/2.0, 3)for i in range(numberForFeatList - 1)]
  19. # 计算出各个划分点信息增益
  20. for mid in midFeatList:
  21. # 将连续值划分为不大于当前划分点和大于当前划分点两部分
  22. eltDataSet, gtDataSet = splitDataSetForSeries(dataSet, i, mid)
  23. # 计算两部分的特征值熵和权重的乘积之和
  24. newEntropy = len(eltDataSet)/len(sortedFeatList)*calShannonEnt(eltDataSet) + len(gtDataSet)/len(sortedFeatList)*calShannonEnt(gtDataSet)
  25. # 计算出信息增益
  26. infoGain = baseEntropy - newEntropy
  27. print('当前划分值为:' + str(mid) + ',此时的信息增益为:' + str(infoGain))
  28. if infoGain > maxInfoGain:
  29. bestMid = mid
  30. maxInfoGain = infoGain
  31. return maxInfoGain, bestMid

选择最好的数据集划分特征

  1. def chooseBestFeatureToSplit(dataSet, labels):
  2. # 得到数据的特征值总数
  3. numFeatures = len(dataSet[0]) - 1
  4. # 计算出基础信息熵
  5. baseEntropy = calShannonEnt(dataSet)
  6. # 基础信息增益为0.0
  7. bestInfoGain = 0.0
  8. # 最好的特征值
  9. bestFeature = -1
  10. # 标记当前最好的特征值是不是连续值
  11. flagSeries = 0
  12. # 如果是连续值的话,用来记录连续值的划分点
  13. bestSeriesMid = 0.0
  14. # 对每个特征值进行求信息熵
  15. for i in range(numFeatures):
  16. # 得到数据集中所有的当前特征值列表
  17. featList = [example[i] for example in dataSet]
  18. if isinstance(featList[0], str):
  19. infoGain = calcInfoGain(dataSet, featList, i, baseEntropy)
  20. else:
  21. print('当前划分属性为:' + str(labels[i]))
  22. infoGain, bestMid = calcInfoGainForSeries(dataSet, i, baseEntropy)
  23. #print('当前特征值为:' + labels[i] + ',对应的信息增益值为:' + str(infoGain))
  24. # 如果当前的信息增益比原来的大
  25. if infoGain > bestInfoGain:
  26. # 最好的信息增益
  27. bestInfoGain = infoGain
  28. # 新的最好的用来划分的特征值
  29. bestFeature = i
  30. flagSeries = 0
  31. if not isinstance(dataSet[0][bestFeature], str):
  32. flagSeries = 1
  33. bestSeriesMid = bestMid
  34. #print('信息增益最大的特征为:' + labels[bestFeature])
  35. if flagSeries:
  36. return bestFeature, bestSeriesMid
  37. else:
  38. return bestFeature

创建决策树

  1. def createTree(dataSet, labels):
  2. # 拿到所有数据集的分类标签
  3. classList = [example[-1] for example in dataSet]
  4. # 统计第一个标签出现的次数,与总标签个数比较,如果相等则说明当前列表中全部都是一种标签,此时停止划分
  5. if classList.count(classList[0]) == len(classList):
  6. return classList[0]
  7. # 计算第一行有多少个数据,如果只有一个的话说明所有的特征属性都遍历完了,剩下的一个就是类别标签
  8. if len(dataSet[0]) == 1:
  9. # 返回剩下标签中出现次数较多的那个
  10. return majorityCnt(classList)
  11. # 选择最好的划分特征,得到该特征的下标
  12. bestFeat = chooseBestFeatureToSplit(dataSet, labels)
  13. # 得到最好特征的名称
  14. bestFeatLabel = ''
  15. # 记录此刻是连续值还是离散值,1连续,2离散
  16. flagSeries = 0
  17. # 如果是连续值,记录连续值的划分点
  18. midSeries = 0.0
  19. # 如果是元组的话,说明此时是连续值
  20. if isinstance(bestFeat, tuple):
  21. # 重新修改分叉点信息
  22. bestFeatLabel = str(labels[bestFeat[0]]) + '小于' + str(bestFeat[1]) + '?'
  23. # 得到当前的划分点
  24. midSeries = bestFeat[1]
  25. # 得到下标值
  26. bestFeat = bestFeat[0]
  27. # 连续值标志
  28. flagSeries = 1
  29. else:
  30. # 得到分叉点信息
  31. bestFeatLabel = labels[bestFeat]
  32. # 离散值标志
  33. flagSeries = 0
  34. # 使用一个字典来存储树结构,分叉处为划分的特征名称
  35. myTree = {bestFeatLabel: {}}
  36. # 得到当前特征标签的所有可能值
  37. featValues = [example[bestFeat] for example in dataSet]
  38. # 连续值处理
  39. if flagSeries:
  40. # 将连续值划分为不大于当前划分点和大于当前划分点两部分
  41. eltDataSet, gtDataSet = splitDataSetForSeries(dataSet, bestFeat, midSeries)
  42. # 得到剩下的特征标签
  43. subLabels = labels[:]
  44. # 递归处理小于划分点的子树
  45. subTree = createTree(eltDataSet, subLabels)
  46. myTree[bestFeatLabel]['小于'] = subTree
  47. # 递归处理大于当前划分点的子树
  48. subTree = createTree(gtDataSet, subLabels)
  49. myTree[bestFeatLabel]['大于'] = subTree
  50. return myTree
  51. # 离散值处理
  52. else:
  53. # 将本次划分的特征值从列表中删除掉
  54. del (labels[bestFeat])
  55. # 唯一化,去掉重复的特征值
  56. uniqueVals = set(featValues)
  57. # 遍历所有的特征值
  58. for value in uniqueVals:
  59. # 得到剩下的特征标签
  60. subLabels = labels[:]
  61. # 递归调用,将数据集中该特征等于当前特征值的所有数据划分到当前节点下,递归调用时需要先将当前的特征去除掉
  62. subTree = createTree(splitDataset(dataSet, bestFeat, value), subLabels)
  63. # 将子树归到分叉处下
  64. myTree[bestFeatLabel][value] = subTree
  65. return myTree

运行结果

 

完整代码

链接: https://pan.baidu.com/s/1npNcg7EfQf49SwoGmXriog?pwd=f98b 提取码: f98b 

 

 

 

 

 

 

 

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小小林熬夜学编程/article/detail/287883
推荐阅读
相关标签
  

闽ICP备14008679号