当前位置:   article > 正文

pandas的数据常用处理_dropdup

dropdup
在数据分析过程中,首先就是对数据进行清洗和处理,而使用 python 进行处理的朋友们,对 pandas 包肯定是熟悉不过的了。pandas 的功能很强大,基本的数据处理操作都可以找到对应函数去使用,想全面了解的朋友可以查看相关文档。在这里,通过这篇文章分享整理了自己平时常用的函数和经验:

1.数据查看

数据量过大时,直接打印变量无法全面进行展示,这时候可以通过函数对数据框中前后几条数据进行查看,方便我们初步去了解数据的一个大体情况:

importpandasaspdimportrandomimportnumpyasnpdata=pd.DataFrame({'A':pd.date_range(start='2019-5-20',periods=4),'B':[random.random()foriinrange(4)],'C':[random.randint(0,50)foriinrange(4)],'D':'cat','E':["小明","小红","小李","小白"],},index=['a','b','c','d'])

1.1 查看数据前/后几行

  1. data.head(3) #不写几行默认5行
  2. data.tail(2)

1.2 查看数据索引

data.index

1.3 查看列名

data.columns

1.4 查看数据类型

data.dtypes

1.5 查看数据的基本分布情况

只对数值类型的字段有作用,包括了计数,均值,标准差,最大最小值和四分位数

data.describe()

2. 数据筛选

数据切片是处理函数中经常需要使用到的操作,相类似于 sql 语句中的 select。ps:同样使用以上面数据框 data 作为示例,下同。

2.1 列切片

  1. data['A']
  2. data[['A', 'B']] # 同时选择多列

2.2 行切片

  1. data[2:4] # 选择第2到第三3行
  2. data['b':'c'] # 选择多行

2.3 同时对行列进行切片

  1. # 通过标签进行筛选
  2. data.loc['a':'c', ['A', 'C']]
  3. data.loc[['a','c'], ['A', 'C']]
  1. # 通过位置进行筛选
  2. data.iloc[3] # 不指定列的话,默认是选择行,单独选择某一行的话返回的不是一个数据框
  3. data.iloc[2:4] # 返回一个数据框
  4. data.iloc[:, 1] # 选择单列,返回的不是一个数据框
  5. data.iloc[:, 1:3] # 选择多列
  6. data.iloc[[1, 2, 3], [0, 2]] # 选择不连续的多行多列

2.4 条件筛选

  1. # 单条件
  2. data[data['C'] >= 30 ]
  3. # 单列多条件
  4. data[data['E'].isin(['小白', '小明'])]
  5. # 多列多条件
  6. data.loc[(data['B']>0.5) & (data['C']<30)]

3. 数据增加

3.1 添加新的列

  1. # 增加一列同样的值
  2. data['F'] = 1
  3. # 增加一列不一致的值(可以是series也可以是list)
  4. data['G'] = pd.Series([11, 22, 33, 44], index=['a', 'b', 'c', 'd'])
  5. data['H'] = [1, 2, 3, 4]

3.2 添加新的行

append

  1. data.append(data.iloc[2:4])
  2. data.append(data.iloc[3], ignore_index=True) #参数ignore_index=True,索引重新排列, 默认是False

concat: 同样有ignore_index参数,可以有字段不一致的情况。PS:合并的对象必须是dataframe

  1. pd.concat([data, data.iloc[1:3]], ignore_index=True)
  2. data_NA = pd.concat([data, data.iloc[[1, 2, 3], [0, 2]]], ignore_index=True)

3.3 数据连接

merge: 两个数据表连接,类似于 sql 语句中的 join,字段可以不一致

pd.merge(data, data.iloc[[1, 2, 3], [0, 2]], on='A')

4. 数据修改

dataframe 中的数据都是可以进行修改的,具体如下所示:

  1. # 修改某一列
  2. data['F'] = data['F'] + 1
  3. # 修改某个值
  4. data['F'].iloc[2] = 23

5. 数据删除

5.1 删除列

data_drop = data.drop('A', axis=1)  # 此时的data仍然是完整的

5.2 删除行

data_drop = data.drop('a', axis=0) # 对于满足条件的索引列表进行删除

6. 常见数据的读入写出

6.1 Excel

  1. # 读入
  2. data = pd.read_excel('data.xlsx', encoding='utf8')
  3. # 写出
  4. data.to_excel('data.xlsx', encoding='utf8', index=None)

6.2 CSV

  1. # 读入
  2. data = pd.read_csv('data.csv', encoding='utf8')
  3. # 写出
  4. data.to_csv('data.csv', encoding='utf8', index=None)

6.3 txt

  1. def load_data(file_path, encoding='utf8'):
  2. """
  3. 导入数据
  4. :param file_path: 数据存放路径
  5. :return: 返回数据列表
  6. """
  7. f = open(file_path, encoding=encoding)
  8. data = []
  9. for line in f.readlines():
  10. row = [] # 记录每一行
  11. lines = line.strip().split("\t") # 各字段按制表符切割
  12. for x in lines:
  13. row.append(x)
  14. data.append(row)
  15. f.close()
  16. return data
  17. data = load_data('data.txt', encoding='utf8')
  18. data = pd.DataFrame(data[1:], columns=data[0]) # 第一行为字段名

7. 处理异常值、重复值

7.1 NA

  1. # 查看nan值分布的情况
  2. pd.isna(data_NA)
  3. pd.isna(data_NA['H'])
  1. # 将nan填充成指定的值
  2. data_NA['B'] = data_NA['B'].fillna(0)
  3. data_NA = data_NA.fillna(0)
  1. # 将数据中nan的数据全部替换成None,这样int类型或str类型的数据入mysql数据库的时候都显示是null
  2. data_NA = pd.concat([data, data.iloc[[1, 2, 3], [0, 2]]], ignore_index=True)
  3. data_NA_1 = data_NA.where(data_NA.notnull(), None)
  1. # 删除nan值
  2. data_NA.dropna(how='any', axis=0) # 只要出现 nan 的行就删除, 删除列则改为 axis=1
  3. data_NA.dropna(subset=['B']) # 对指定列出现 nan 的行进行删除

7.2 重复值

  1. # 查看重复数据
  2. data.duplicated()
  3. data.duplicated(['D'])
  4. # 对全部字段进行去重
  5. data_dropdup = data.drop_duplicates()
  6. # 对指定字段进行去重操作
  7. data_dropdup = data.drop_duplicates(['C', 'F'])

8. dataframe 的属性

8.1 数据框的索引重排列

适用于数据框筛选、合并等导致索引不连续的情况

data = data.reset_index(drop=True)

8.2 数据框的列名修改

data.columns = ['A1', 'B1', 'C1', 'D1', 'E1', 'F1', 'G1', 'H1']

8.3 修改数据框或者指定列的类型

data['B1'] = data['B1'].astype('int')  # int 类型导致小数点后面被舍弃了

9. mysql数据库操作

  1. import sqlalchemy
  2. # 读取
  3. conn = sqlalchemy.create_engine('mysql+pymysql://用户名:密码@IP/数据库名?charset='数据库编码')
  4. da = pd.read_sql("SELECT * FROM 表名;",conn) #双引号里可以放入sql语句
  5. Ps:若是类似LIKE '%文字%' 的结构,则需要改成LIKE '%%文字%%'
  6. # 写入
  7. pd.io.sql.to_sql(dataframe, '表名', conn, schema='数据库名', if_exists='append', index=False) # index=False表示不把索引写入

10. 遍历计算

只将遍历计算作用在某一列上

data['G1'] = data['G1'].astype(str).apply(lambda x : 'ZZ'+str(x))  # spply里面可以定义匿名函数

直接将整个dataframe的每一列都套用函数进行遍历计算

data = data.apply(lambda x : str(x)+1) # 只能用于当操作可以适用于每个字段的类型的情况

11. 分组和统计个数

  1. import pandas as pd
  2. import numpy as np
  3. data = pd.DataFrame({'H':np.random.randint(2, 8, size=10),
  4. 'J':np.random.randint(0, 5, size=10),
  5. 'K':np.random.uniform(size=10)})
  1. # 分组
  2. data.groupby('H').sum() # 对H进行分组并展示剩余数值类型列的和
  3. data.groupby('H')['J'].sum() # 对H进行分组并展示相对应的J列的和
  4. data.groupby(['H', 'J']).sum() # 对H,J进行分组并展示相对应的剩余数值类型列的和
  1. # 统计data中H列每个值出现的次数
  2. result1 = data['H'].value_counts() # 按照计数量的大小排序
  3. 以下和上面得到结果一致
  4. result2 = data.groupby('H')['H'].count() # 对H进行分组并展示相对应的H列的个数

12. 数据塑性——长宽表变换

  1. import pandas as pd
  2. import numpy as np
  3. data_start = pd.DataFrame({
  4. "城市":["广州","深圳","上海","杭州","北京"],
  5. "销售1部":[877,932,970,340,234],
  6. "销售2部":[453,899,290,213,555],
  7. "销售3部":[663,380,223,900,330],
  8. "销售4部":[505,800,200,252,330] })

12.1 宽变长

在数据分析中,经常需要长表数据去绘制图表或者训练模型,而当你拿到的数据数汇总后的表格时,便可以采用宽表转长表的方式

  1. data_long = data_start.melt(
  2. id_vars=["城市"], # 保留的字段
  3. var_name="部门", # 分类变量
  4. value_name="数量" # 度量值字段
  5. )

12.2 长变宽

用于数据汇总,比较不常用

  1. data_long.pivot_table(
  2. index=["城市"], #行(可以是多类别变量)
  3. columns=["部门"], #列(可以是多类别变量)
  4. values=["数量"] #值
  5. )

关于 pandas 数据处理的常用操作就分享到这里啦,有其他常用便捷的方法欢迎在下方留言哦~

原文网址:https://zhuanlan.zhihu.com/p/67003804

data = data.dropna()

该行代码的意思为删除有空值的行()默认为行

data = data.drop(477)

该行代码的意思为删除477行数据。

本文内容由网友自发贡献,转载请注明出处:https://www.wpsshop.cn/w/你好赵伟/article/detail/98182
推荐阅读
  

闽ICP备14008679号