赞
踩
人工智能实验ID3决策树
目录
人工智能实验ID3决策树 1
一、 ID3决策树 1
1.计算特征 A A A对数据集 D D D的经验条件熵:
1.计算信息增益:
对所有的特征,都计算出相应的信息增益。比较各个特征的信息增益,最终选择使得信息增益最大的特征作为决策点。每次优先选择信息量最多的属性,即使得熵变得最小的属性,以构造使得熵下降最快的决策树,到叶子节点时熵为0或接近0。
Input:ID3tree, node, data /* 输入:ID3决策树、当前节点、当前数据集 */ Output:HD /* 输出:经验熵 */ def calcHD(ID3tree, node, data){ count0 = 0 /* 统计标签为0的样本数 */ count1 = 0 /* 统计标签为1的样本数 */ /* 遍历每个样本,统计不同标签对应的样本数 */ for eachSample in data if eachSample的标签为0 then count0++ else count1++ end /* 若当前数据集的所有样本的标签都相同则直接生成叶子节点 */ HD = 0 if count0 == 0 then ID3tree[node] = 1 else if count1 = 0 then ID3tree[node] = 0 /* 否则计算经验熵 */ HD = - count0/(count0+count1)*log2(count0/(count0+count1)) - count1/(count0+count1)*log2(count1/(count0+count1)) return HD }
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。