当前位置:   article > 正文

Pandas数据分析 - 去重 - duplicated() drop_duplicates() 用法_duplicates = df.[...].sum()

duplicates = df.[...].sum()
  1. import numpy as np
  2. import pandas as pd
  1. #生成重复数据
  2. df=pd.DataFrame(np.ones([5,2]),columns=['col1','col2'])
  3. df['col3']=['a','b','a','c','d']
  4. df['col4']=[3,2,3,2,2]
  5. df=df.reindex(columns=['col3','col4','col1','col2']) #将新增的一列排在第一列
  6. df
  7. col3 col4 col1 col2
  8. 0 a 3 1.0 1.0
  9. 1 b 2 1.0 1.0
  10. 2 a 3 1.0 1.0
  11. 3 c 2 1.0 1.0
  12. 4 d 2 1.0 1.0
  1. #判断重复数据
  2. df.duplicated()
  3. 0 False
  4. 1 False
  5. 2 True
  6. 3 False
  7. 4 False
  8. dtype: bool
  9. df.duplicated().sum()
  10. 1
  1. #删除重复值
  2. df.drop_duplicates() #删除数据记录中所有列值相同的记录
  3. col3 col4 col1 col2
  4. 0 a 3 1.0 1.0
  5. 1 b 2 1.0 1.0
  6. 3 c 2 1.0 1.0
  7. 4 d 2 1.0 1.0
  8. df.drop_duplicates(['col3']) #删除数据记录中col3列值相同的记录
  9. col3 col4 col1 col2
  10. 0 a 3 1.0 1.0
  11. 1 b 2 1.0 1.0
  12. 3 c 2 1.0 1.0
  13. 4
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/繁依Fanyi0/article/detail/540905
推荐阅读
相关标签
  

闽ICP备14008679号