当前位置:   article > 正文

Python中进行特征重要性分析的9个常用方法

可通过查看特征重要性来判断取哪些特征

点击上方“小白学视觉”,选择加"星标"或“置顶

重磅干货,第一时间送达
来源:Deephub Imba

特征重要性分析用于了解每个特征(变量或输入)对于做出预测的有用性或价值。目标是确定对模型输出影响最大的最重要的特征,它是机器学习中经常使用的一种方法。

0907132e81794fe906d3ba69be908f61.png

为什么特征重要性分析很重要?

如果有一个包含数十个甚至数百个特征的数据集,每个特征都可能对你的机器学习模型的性能有所贡献。但是并不是所有的特征都是一样的。有些可能是冗余的或不相关的,这会增加建模的复杂性并可能导致过拟合。

特征重要性分析可以识别并关注最具信息量的特征,从而带来以下几个优势:‍

  • 改进的模型性能

  • 减少过度拟合

  • 更快的训练和推理

  • 增强的可解释性

下面我们深入了解在Python中的一些特性重要性分析的方法。

特征重要性分析方法

1、排列重要性 PermutationImportance

该方法会随机排列每个特征的值,然后监控模型性能下降的程度。如果获得了更大的下降意味着特征更重要。

 
 
  1. from sklearn.datasets import load_breast_cancer
  2. from sklearn.ensemble import RandomForestClassifier
  3. from sklearn.inspection import permutation_importance
  4. from sklearn.model_selection import train_test_split
  5. import matplotlib.pyplot as plt
  6. cancer = load_breast_cancer()
  7. X_train, X_test, y_train, y_test = train_test_split(cancer.data, cancer.target, random_state=1)
  8. rf = RandomForestClassifier(n_estimators=100, random_state=1)
  9. rf.fit(X_train, y_train)
  10. baseline = rf.score(X_test, y_test)
  11. result = permutation_importance(rf, X_test, y_test, n_repeats=10, random_state=1, scoring='accuracy')
  12. importances = result.importances_mean
  13. # Visualize permutation importances
  14. plt.bar(range(len(importances)), importances)
  15. plt.xlabel('Feature Index')
  16. plt.ylabel('Permutation Importance')
  17. plt.show()

726bb3cf442c67addeab7102bc83bdaf.png

2、内置特征重要性(coef_或feature_importances_)

一些模型,如线性回归和随机森林,可以直接输出特征重要性分数。这些显示了每个特征对最终预测的贡献。

 
 
  1. from sklearn.datasets import load_breast_cancer
  2. from sklearn.ensemble import RandomForestClassifier
  3. X, y = load_breast_cancer(return_X_y=True)
  4. rf = RandomForestClassifier(n_estimators=100, random_state=1)
  5. rf.fit(X, y)
  6. importances = rf.feature_importances_
  7. # Plot importances
  8. plt.bar(range(X.shape[1]), importances)
  9. plt.xlabel('Feature Index')
  10. plt.ylabel('Feature Importance')
  11. plt.show()

8bb34ecf488199a6e99ab66a229ffdc3.png

3、Leave-one-out

迭代地每次删除一个特征并评估准确性。

 
 
  1. from sklearn.datasets import load_breast_cancer
  2. from sklearn.model_selection import train_test_split
  3. from sklearn.ensemble import RandomForestClassifier
  4. from sklearn.metrics import accuracy_score
  5. import matplotlib.pyplot as plt
  6. import numpy as np
  7. # Load sample data
  8. X, y = load_breast_cancer(return_X_y=True)
  9. # Split data into train and test sets
  10. X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=1)
  11. # Train a random forest model
  12. rf = RandomForestClassifier(n_estimators=100, random_state=1)
  13. rf.fit(X_train, y_train)
  14. # Get baseline accuracy on test data
  15. base_acc = accuracy_score(y_test, rf.predict(X_test))
  16. # Initialize empty list to store importances
  17. importances = []
  18. # Iterate over all columns and remove one at a time
  19. for i in range(X_train.shape[1]):
  20. X_temp = np.delete(X_train, i, axis=1)
  21. rf.fit(X_temp, y_train)
  22. acc = accuracy_score(y_test, rf.predict(np.delete(X_test, i, axis=1)))
  23. importances.append(base_acc - acc)
  24. # Plot importance scores
  25. plt.bar(range(len(importances)), importances)
  26. plt.show()

21f893e3779c4d23ef1dc907dfbb6d2d.png

4、相关性分析

计算各特征与目标变量之间的相关性。相关性越高的特征越重要。

  1. import pandas as pd
  2. from sklearn.datasets import load_breast_cancer
  3. X, y = load_breast_cancer(return_X_y=True)
  4. df = pd.DataFrame(X, columns=range(30))
  5. df['y'] = y
  6. correlations = df.corrwith(df.y).abs()
  7. correlations.sort_values(ascending=False, inplace=True)
  8. correlations.plot.bar()

d0a8628d158e8c34e6a5b0c990991e64.png

5、递归特征消除 Recursive Feature Elimination

递归地删除特征并查看它如何影响模型性能。删除时会导致更大下降的特征更重要。

  1. from sklearn.ensemble import RandomForestClassifier
  2. from sklearn.feature_selection import RFE
  3. import pandas as pd
  4. from sklearn.datasets import load_breast_cancer
  5. import matplotlib.pyplot as plt
  6. X, y = load_breast_cancer(return_X_y=True)
  7. df = pd.DataFrame(X, columns=range(30))
  8. df['y'] = y
  9. rf = RandomForestClassifier()
  10. rfe = RFE(rf, n_features_to_select=10)
  11. rfe.fit(X, y)
  12. print(rfe.ranking_)
  13. 输出为[6 4 11 12 7 11 18 21 8 16 10 3 15 14 19 17 20 13 11 11 12 9 11 5 11]

6、XGBoost特性重要性

计算一个特性用于跨所有树拆分数据的次数。更多的分裂意味着更重要。

 
 
  1. import xgboost as xgb
  2. import pandas as pd
  3. from sklearn.datasets import load_breast_cancer
  4. import matplotlib.pyplot as plt
  5. X, y = load_breast_cancer(return_X_y=True)
  6. df = pd.DataFrame(X, columns=range(30))
  7. df['y'] = y
  8. model = xgb.XGBClassifier()
  9. model.fit(X, y)
  10. importances = model.feature_importances_
  11. importances = pd.Series(importances, index=range(X.shape[1]))
  12. importances.plot.bar()

b812ed59adc9fc0915e449934e0e6bb9.png

7、主成分分析 PCA

对特征进行主成分分析,并查看每个主成分的解释方差比。在前几个组件上具有较高负载的特性更为重要。

 
 
  1. from sklearn.decomposition import PCA
  2. import pandas as pd
  3. from sklearn.datasets import load_breast_cancer
  4. import matplotlib.pyplot as plt
  5. X, y = load_breast_cancer(return_X_y=True)
  6. df = pd.DataFrame(X, columns=range(30))
  7. df['y'] = y
  8. pca = PCA()
  9. pca.fit(X)
  10. plt.bar(range(pca.n_components_), pca.explained_variance_ratio_)
  11. plt.xlabel('PCA components')
  12. plt.ylabel('Explained Variance')

2d6036d06a733a6892ef4b141f1dc997.png

8、方差分析 ANOVA

使用f_classif()获得每个特征的方差分析f值。f值越高,表明特征与目标的相关性越强。

 
 
  1. from sklearn.feature_selection import f_classif
  2. import pandas as pd
  3. from sklearn.datasets import load_breast_cancer
  4. import matplotlib.pyplot as plt
  5. X, y = load_breast_cancer(return_X_y=True)
  6. df = pd.DataFrame(X, columns=range(30))
  7. df['y'] = y
  8. fval = f_classif(X, y)
  9. fval = pd.Series(fval[0], index=range(X.shape[1]))
  10. fval.plot.bar()

aae3f630be1c9f009125b3a18aa6d73d.png

9、卡方检验

使用chi2()获得每个特征的卡方统计信息。得分越高的特征越有可能独立于目标。

 
 
  1. from sklearn.feature_selection import chi2
  2. import pandas as pd
  3. from sklearn.datasets import load_breast_cancer
  4. import matplotlib.pyplot as plt
  5. X, y = load_breast_cancer(return_X_y=True)
  6. df = pd.DataFrame(X, columns=range(30))
  7. df['y'] = y
  8. chi_scores = chi2(X, y)
  9. chi_scores = pd.Series(chi_scores[0], index=range(X.shape[1]))
  10. chi_scores.plot.bar()

e568b160d5a9314bf05c5c32b49279e9.png


为什么不同的方法会检测到不同的特征?‍

不同的特征重要性方法有时可以识别出不同的特征是最重要的,这是因为:

1、他们用不同的方式衡量重要性:

有的使用不同特特征进行预测,监控精度下降。

像XGBOOST或者回国模型使用内置重要性来进行特征的重要性排列。

而PCA着眼于方差解释。

2、不同模型有不同模型的方法:

线性模型倾向于线性关系、树模型倾向于接近根的特征。‍

3、交互作用:

有的方法可以获取特征之间的相互左右,而有一些则不行,这就会导致结果的差异。

4、不稳定:

使用不同的数据子集,重要性值可能在同一方法的不同运行中有所不同,这是因为数据差异决定的。

5、Hyperparameters:

通过调整超参数,如PCA组件或树深度,也会影响结果。

所以不同的假设、偏差、数据处理和方法的可变性意味着它们并不总是在最重要的特征上保持一致。

选择特征重要性分析方法的一些最佳实践

  • 尝试多种方法以获得更健壮的视图;

  • 聚合结果的集成方法;

  • 更多地关注相对顺序,而不是绝对值;

  • 差异并不一定意味着有问题,检查差异的原因会对数据和模型有更深入的了解。

编辑:王菁 校对:林亦霖

 
 
  1. 下载1:OpenCV-Contrib扩展模块中文版教程
  2. 在「小白学视觉」公众号后台回复:扩展模块中文教程,即可下载全网第一份OpenCV扩展模块教程中文版,涵盖扩展模块安装、SFM算法、立体视觉、目标跟踪、生物视觉、超分辨率处理等二十多章内容。
  3. 下载2:Python视觉实战项目52
  4. 在「小白学视觉」公众号后台回复:Python视觉实战项目,即可下载包括图像分割、口罩检测、车道线检测、车辆计数、添加眼线、车牌识别、字符识别、情绪检测、文本内容提取、面部识别等31个视觉实战项目,助力快速学校计算机视觉。
  5. 下载3:OpenCV实战项目20
  6. 在「小白学视觉」公众号后台回复:OpenCV实战项目20讲,即可下载含有20个基于OpenCV实现20个实战项目,实现OpenCV学习进阶。
  7. 交流群
  8. 欢迎加入公众号读者群一起和同行交流,目前有SLAM、三维视觉、传感器、自动驾驶、计算摄影、检测、分割、识别、医学影像、GAN、算法竞赛等微信群(以后会逐渐细分),请扫描下面微信号加群,备注:”昵称+学校/公司+研究方向“,例如:”张三 + 上海交大 + 视觉SLAM“。请按照格式备注,否则不予通过。添加成功后会根据研究方向邀请进入相关微信群。请勿在群内发送广告,否则会请出群,谢谢理解~
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小蓝xlanll/article/detail/433540
推荐阅读
相关标签
  

闽ICP备14008679号