当前位置:   article > 正文

数据预处理(详细步骤以及代码说明)_数据预处理数据文件

数据预处理数据文件

目录

导入所需库

读取数据

 读取CSV数据:

读取文本数据:

读取EXCEL数据:

查看数据基本信息

查看数据集的类型

数据类型的转换

DataFrame类型:

不是DataFrame数据类型:

不同类型之间的转换:

数据清洗

填充缺失值:

处理离群值:

处理异常值:

处理重复值:

数据的归一化

整合数据

数据规约

总结

补充(连续与不连续数据填充)

连续型数据:

非连续型数据:


       数据预处理是数据分析和机器学习过程中至关重要的一步。它涉及到对原始数据进行清洗、转换和规范化,以便于后续的建模和分析。以下是数据预处理的一些常见步骤以及对应的代码解释:

导入所需库

  1. import pandas as pd
  2. import numpy as np

这里我们导入了两个常用的库,Pandas 和 NumPy。Pandas 用于数据处理和分析,而 NumPy 用于数值计算。

读取数据

读取CSV数据

  1. # 读取 CSV 文件
  2. data = pd.read_csv('data.csv')

读取文本数据:

  1. # 读取文本数据
  2. text_data = '''
  3. column1,column2,column3
  4. value1,value2,value3
  5. value4,value5,value6
  6. '''
  7. # 将文本数据转换为 DataFrame
  8. data = pd.read_csv(text_data, sep=',', engine='python')

读取EXCEL数据:

  1. # 读取 Excel 文件
  2. data = pd.read_excel('data.xlsx', engine='openpyxl')

查看数据基本信息

  1. ##Pycharm中
  2. print(data.head())
  3. ##Jupyter中
  4. data.head()
  5. ##也可以使用
  6. data.info()

data.head() 函数会返回 DataFrame 的前 5 行数据。print() 函数用于将结果输出到控制台。

查看数据集的类型

type(data)

数据类型的转换

data['column'] = data['column'].astype('int') 

使用 astype() 函数将 DataFrame 中的 column 列转换为整数类型。

DataFrame类型:

  1. # 创建一个示例 DataFrame
  2. data = pd.DataFrame({
  3. 'column1': [1, 2, 3, 4],
  4. 'column2': ['A', 'B', 'C', 'D'],
  5. 'column3': [1.1, 2.2, 3.3, 4.4]
  6. })
  7. # 查看 DataFrame 的数据类型
  8. print(data.dtype)

不是DataFrame数据类型:

       要将不是 DataFrame 的数据转换为 DataFrame,可以使用 Pandas 中的 pd.DataFrame() 函数。

  1. # 创建一个列表
  2. data_list = [
  3. [1, 'A', 1.1],
  4. [2, 'B', 2.2],
  5. [3, 'C', 3.3],
  6. [4, 'D', 4.4]
  7. ]
  8. # 将列表转换为 DataFrame
  9. data_df = pd.DataFrame(data_list)

不同类型之间的转换:

       如果要将不是 DataFrame 的数据(如字典、列表等)转换为 DataFrame,可以先将其转换为列表,然后再使用 pd.DataFrame() 函数进行转换

  1. # 创建一个字典
  2. data_dict = {
  3. 'col1': [1, 2, 3, 4],
  4. 'col2': ['A', 'B', 'C', 'D'],
  5. 'col3': [1.1, 2.2, 3.3, 4.4]
  6. }
  7. # 将字典转换为列表
  8. data_list = data_dict.values()
  9. # 将列表转换为 DataFrame
  10. data_df = pd.DataFrame(data_list)

数据清洗

填充缺失值:

data.fillna(value=0, inplace=True)

fillna() 函数用于填充 DataFrame 中的缺失值。这里我们使用 value 参数设置填充值为 0,并使用 inplace=True 参数直接修改原始 DataFrame。

处理离群值:

data = data[(data['column1'] >= min_value) & (data['column1'] <= max_value)]    

使用布尔索引来筛选 DataFrame 中的行,只保留满足条件的数据。& 符号表示逻辑与操作,用于确保 column1 的值在指定范围内。

  1. # 处理离群值
  2. def std_data(train, i): # data为数据集,i为列名,便于循环
  3. #计算标准差
  4. std = train[i].std()
  5. col = []
  6. for item in train[i]:
  7. if item < 3 * std or item > - 3 * std:
  8. col.append(item)
  9. if item > 3 * std:
  10. item = 3 * std
  11. col.append(item)
  12. else:
  13. item = -3 * std
  14. col.append(item)
  15. new_col = pd.DataFrame(col)
  16. train[i] = new_col
  17. return train
  18. for i in list(train.columns):
  19. df= std_data(train, i) # 离群值处理
  20. sns.boxplot(data=df,orient='h',palette='Set2')
  21. plt.show()

处理异常值:

data['column'] = data['column'].apply(lambda x: x if x < 100 else np.nan)  

使用 apply() 函数对名为 column 的列进行操作。apply() 函数会作用于每一行数据。我们使用 lambda 函数来检查每一行的值是否小于 100,如果是,则保留原值;否则,替换为 NaN(Not a Number,即缺失值)。

处理重复值:

data = data.drop_duplicates()  

drop_duplicates() 函数会删除 DataFrame 中的重复行。

数据的归一化

data['column'] = (data['column'] - min_value) / (max_value - min_value)    

使用 lambda 函数对 DataFrame 中的 column 列进行归一化处理。

  1. from sklearn.preprocessing import MinMaxScaler
  2. def normalize_columns(df2, columns):
  3. # 进行规范化
  4. scaler = MinMaxScaler()
  5. for col in columns:
  6. if df2[col].dtype != 'object':
  7. # 从 DataFrame 中提取出该列,并将其转换为二维数组
  8. col_data = df2[[col]].values
  9. # 调用 MinMaxScaler 对象的 fit_transform() 方法进行规范化
  10. normalized_data = scaler.fit_transform(col_data)
  11. # 将规范化后的数组转换回一维,并将其添加回 DataFrame 中
  12. df2[col] = normalized_data.flatten()
  13. return df2
  14. # 2.2 数值型数据标准化
  15. df3 = normalize_columns(df2, numerical_columns)
  16. df3.head()

整合数据

data_merged = pd.concat([data1, data2])

使用 Pandas 的 concat() 函数将两个 DataFrame(data1data2)整合为一个 DataFrame。

数据规约

data_summary = data.describe()

这里我们使用 Pandas 的 describe() 函数来计算 DataFrame 的摘要统计信息,如均值、标准差、最小值、最大值等。

总结

       通过以上步骤,我们可以完成数据预处理过程。需要注意的是,预处理过程可能会根据实际需求进行调整。在实际操作中,我们需要灵活运用各种方法来处理数据。

补充(连续与不连续数据填充)

      对于连续型数据和非连续型数据的填充,有一些常用的方法可以参考:

连续型数据:

      连续型数据是指在某个区间内可以取任意值的变量,例如身高、体重、年龄等。对于连续型数据的填充,可以考虑以下方法:

  • 使用均值填充:填充缺失值时,可以使用该列的均值作为填充值。例如,对于身高这一列,如果某个人的身高缺失,可以使用所有人的平均身高来填充。
  • 使用中位数填充:中位数是数值排序后位于中间位置的数,对于连续型数据,可以使用中位数来填充缺失值。例如,对于考试成绩这一列,如果某个人的成绩缺失,可以使用所有人的成绩中位数来填充。
  • 使用众数填充:众数是数据中出现次数最多的数,对于一些具有规律的连续型数据,可以使用众数来填充缺失值。例如,对于某个地区的气温数据,如果某天的气温缺失,可以使用该地区历史同期的平均气温作为填充值。

非连续型数据:

      非连续型数据是指只能取有限个值的变量,例如性别、民族、血型等。对于非连续型数据的填充,可以考虑以下方法:

  • 使用最常出现的类别填充:对于非连续型数据,可以使用出现次数最多的类别作为填充值。例如,对于某个地区的民族数据,如果某个人的民族缺失,可以使用该地区最常出现的民族作为填充值。
  • 使用众数填充:对于一些具有规律的非连续型数据,可以使用众数来填充缺失值。例如,对于某个班级的学生性别数据,如果某个人的性别缺失,可以使用该班级男生和女生的比例来填充。
  • 使用常数填充:对于一些特定的非连续型数据,可以使用常数来填充缺失值。例如,对于血型这一列,如果某个人的血型缺失,可以使用“未知”或“无法确定”等常数来填充。

      需要注意的是,对于非连续型数据的填充,要确保填充后的数据依然具有合理的逻辑性和一致性。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/羊村懒王/article/detail/370755
推荐阅读
相关标签
  

闽ICP备14008679号