dateframe去重
和dataframe去重不同,当需要的是那些重复数据而不是非重复数据是,就想要将重复数据提取出来时,或者去除那些非重复数据。
主要思路:
1. 采用drop_duplicates对数据去两次重,一次将重复数据全部去除(keep=False),另一次将重复数据保留一个(keep='first);
2. 上一步我们得到了两类去重数据,分别是含有原本重复的数据(a)和不含有原本重复的数据(b),b是a的真子集,然后就可以用作差集的思想(https://blog.csdn.net/jasonwang_/article/details/78797458),即a-b,得到我们需要的原本重复的数据。
示例代码如下:
>>>import pandas as pd >>>data={'state':[1,1,2,2,1,2,2],'pop':['a','b','c','d','b','c','d']} >>>frame=pd.DataFrame(data) >>>frame pop state 0 a 1 1 b 1 2 c 2 3 d 2 4 b 1 5 c 2 6 d 2 >>>a = frame.drop_duplicates(subset=['pop'],keep='first') >>>a pop state 0 a 1 1 b 1 2 c 2 3 d 2 >>>b = frame.drop_duplicates(subset=['pop'],keep=False) >>>b pop state 0 a 1 >>>a.append(b).drop_duplicates(subset=['pop'],keep=False) pop state 1 b 1 2 c 2 3 d 2
最后得到的三行数据就是重复的数据。