当前位置:   article > 正文

决策树的特征重要性_决策树特征重要性

决策树特征重要性

决策树的特征重要性

接上一篇

print("Feature importances:\n{}".format(tree.feature_importances_))
  • 1

在这里插入图片描述

def plot_feature_importances_cancer(model):
n_features = cancer.data.shape[1]
plt.barh(range(n_features), model.feature_importances_, align='center')
plt.yticks(np.arange(n_features), cancer.feature_names)
plt.xlabel("Feature importance")
plt.ylabel("Feature")
plot_feature_importances_cancer(tree)
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
顶部划分用到的特征(“worst radius”)是最重要的特征。
这也证实了我们
在分析树时的观察结论,即第一层划分已经将两个类别区分得很好。
但是,如果某个特征的 feature_importance_ 很小,并不能说明这个特征没有提供任何信
息。这只能说明该特征没有被树选中,可能是因为另一个特征也包含了同样的信息
  • 1
  • 2
  • 3
  • 4
  • 5
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/Gausst松鼠会/article/detail/591219
推荐阅读
相关标签
  

闽ICP备14008679号