当前位置:   article > 正文

缺失值处理方法:代数/统计/机器学习算法补全数据(附Python-sklearn代码&精美可视化绘图)_缺失值怎么补

缺失值怎么补

注:本期的删除或插补方法主要针对连续数据时间序列数据的插补在后续关于时间序列的博客中讲明。参考鸢尾花丛书,链接如下:

参考书籍及源代码链接icon-default.png?t=N7T8https://github.com/Visualize-ML

博客是选出自己感觉用的到的精炼部分加自己的理解,代码结果也是自己实操,部分还在学习过程增加了注释,算是笔记,科研时参考方便!!


一、删除

承接上一节的代码,继续进行处理!

1、整行整列删除

一般情况的数据集,每行代表一个样本,每列代表一个特征。处理缺失值的基本策略是舍弃包含缺失值的整行或整列,但会丢失有价值的数据。

dropna(axis = 0, how = 'any')方法,具有如下特征:

  • axis = 0 为按行删除,设置 axis = 1 表示按列删除
  • how = 'any'时,表示某行或列只要有一个缺失值,就删除该行或列
  • how = 'all' ,表示该行或列全部都为缺失值时,才删除该行或列
  • 默认 设置为 axis = 0 how = 'any'
  1. X_NaN_drop = X_NaN.dropna(axis=0) #默认删除方式,按行any
  2. iris_df_NaN_drop = pd.DataFrame(X_NaN_drop, columns=X_NaN.columns, index=X_NaN.index)
  3. iris_df_NaN_drop['species'] = y
  4. sns.pairplot(iris_df_NaN_drop, hue='species', palette = "dark")

数据减少了很多,不管是删除缺失值所在的行或 列,都会浪费大量有价值的信息


2、成对删除

一种特别的删除方式,进行多特征联立时,只删除掉 需要执行运算特征 包含的缺失数据。例如估算方差协方差矩阵时,计算X1和X3的相关性,只需要删除下面数据点:

二、插补

删除策略可能会丢失有价值的数据,更好的策略是估算缺失值,即从数据的已知部分推断出缺失值,这种方法统称插补

分类数据 连续数据 采用的方法也稍有差别。注意,选取采用插补方法要格外小心, 如果填充方法不合理,会引入数据噪音,并造成数据分析结果不准确。
时间序列数据 采用的插补方法不同于一般数据。 Pandas 数据帧有基本插补功能,特别是对于时间数据, 可以采用插值 、向前填充、向后填充。( 后续关于时间序列的博客中讲明)

1、单变量插补:统计插补

仅使用缺失值所在特征维度的非缺失值来插补,函数方法SimpleImputer()——可以使用缺失值所在的行/列中的统计数据平均值 ('mean')中位数 ('median') 或者众数 ('most_frequent') 来填充,也可以使用指定的常数 'constant'

连续数据常用平均值中位数分类数据常用众数来填充!如用中位数填充上述缺失数据集:

  1. #单变量插补
  2. from sklearn.impute import SimpleImputer
  3. # The imputation strategy:
  4. # 'mean', replace missing values using the mean along each column
  5. # 'median', replace missing values using the median along each column
  6. # 'most_frequent', replace missing using the most frequent value along each column
  7. # 'constant', replace missing values with fill_value
  8. si = SimpleImputer(strategy='median')
  9. # impute training data
  10. X_NaN_median = si.fit_transform(X_NaN)
  11. iris_df_NaN_median = pd.DataFrame(X_NaN_median,
  12. columns=X_NaN.columns,
  13. index=X_NaN.index)
  14. iris_df_NaN_median['species'] = y
  15. sns.pairplot(iris_df_NaN_median, hue='species', palette = "dark")
  16. plt.show()

中位数插补数据呈”十字状“,插补方法也可以通过替换注释中的字符实现。


2、K近邻插补

k 近邻算法 k -NN) 是最基本 监督学习 方法之 一,k -NN 中的 k 指的是“近邻”的数量——“近朱者赤,近墨者黑”。函数方法KNNImputer()——先给定距离 缺失值数据最近的 k 个样本,将这 k 个值等 权重平均或加权平均来插补缺失值。
  1. ## kNN插补
  2. from sklearn.impute import KNNImputer
  3. knni = KNNImputer(n_neighbors=5) #创建KNN实例化对象
  4. X_NaN_kNN = knni.fit_transform(X_NaN) #开始插补
  5. iris_df_NaN_kNN = pd.DataFrame(X_NaN_kNN,
  6. columns=X_NaN.columns,
  7. index=X_NaN.index)
  8. iris_df_NaN_kNN['species'] = y
  9. sns.pairplot(iris_df_NaN_kNN,
  10. hue='species', palette = "dark")
  11. plt.show()


3、多变量插补

对比单变量插补,不用缺失值所在特征的数据,而是使用其他特征数据来填充该缺失值缺失值建模为其他特征的函数),考虑了不同特征数据的联系!!

函数方法IterativeImputer(),整个过程用迭代循环的方式进行!

  1. ## 多变量插补
  2. from sklearn.experimental import enable_iterative_imputer
  3. from sklearn.impute import IterativeImputer
  4. from sklearn.ensemble import RandomForestRegressor
  5. rf_imp = IterativeImputer(estimator=
  6. RandomForestRegressor(random_state=0),
  7. max_iter=20)
  8. X_NaN_RF = rf_imp.fit_transform(X_NaN)
  9. iris_df_NaN_RF = pd.DataFrame(X_NaN_RF,
  10. columns=X_NaN.columns,
  11. index=X_NaN.index)
  12. iris_df_NaN_RF['species'] = y
  13. sns.pairplot(iris_df_NaN_RF, hue='species',
  14. palette = "dark")
  15. plt.show()


IterativeImputer()多变量插补方法很灵活,也可以与决策树回归、贝叶斯岭回归等估算器联合使用:

参考资料1icon-default.png?t=N7T8https://scikit-learn.org/stable/modules/impute.html参考资料2icon-default.png?t=N7T8https://scikit-learn.org/stable/auto_examples/impute/plot_iterative_imputer_variants_comparison

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小惠珠哦/article/detail/948633
推荐阅读
相关标签
  

闽ICP备14008679号