当前位置:   article > 正文

python实现特征分析--特征重要性和相关系数_python特征重要性

python特征重要性

机器学习中特征尤为重要,现分享特征分析中计算特征重要性和相关系数的方法

一、特征重要性

可通过两种方式实现

1.机器学习方法自带的feature_importance

importances = xgb1.feature_importances_

2.将某一特征变成随机数,计算袋外误差,误差越高,其重要性越高

  1. importance2 = []
  2. acc = sklearn.metrics.r2_score(Y, xgb1.predict(X))
  3. for i in range(X.shape[1]):
  4. X1 = X.copy()
  5. np.random.shuffle(X1[:, i])
  6. shuff_acc = sklearn.metrics.r2_score(Y, xgb1.predict(X1))
  7. importance2.append(round((acc-shuff_acc)/acc, 6))

二、相关性

虽然机器学习捕获的是因子之间的非线性关系,相关系数可能不能解释特征的重要性高低,但也可以提供一些分析信息

np.corrcoef(xxx, Y)[0,1]

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/羊村懒王/article/detail/433549
推荐阅读
相关标签
  

闽ICP备14008679号