dateframe去重

和dataframe去重不同,当需要的是那些重复数据而不是非重复数据是,就想要将重复数据提取出来时,或者去除那些非重复数据。

主要思路:

1. 采用drop_duplicates对数据去两次重,一次将重复数据全部去除(keep=False),另一次将重复数据保留一个(keep='first);

2. 上一步我们得到了两类去重数据,分别是含有原本重复的数据(a)和不含有原本重复的数据(b),b是a的真子集,然后就可以用作差集的思想(https://blog.csdn.net/jasonwang_/article/details/78797458),即a-b,得到我们需要的原本重复的数据。

示例代码如下:

 

>>>import pandas as pd  
>>>data={'state':[1,1,2,2,1,2,2],'pop':['a','b','c','d','b','c','d']}
>>>frame=pd.DataFrame(data)  
>>>frame
	pop	state
0	a	1
1	b	1
2	c	2
3	d	2
4	b	1
5	c	2
6	d	2
>>>a = frame.drop_duplicates(subset=['pop'],keep='first')
>>>a
	pop	state
0	a	1
1	b	1
2	c	2
3	d	2
>>>b = frame.drop_duplicates(subset=['pop'],keep=False)
>>>b
	pop	state
0	a	1
>>>a.append(b).drop_duplicates(subset=['pop'],keep=False)
	pop	state
1	b	1
2	c	2
3	d	2

最后得到的三行数据就是重复的数据。

posted on 2018-06-05 15:51  风过竹影  阅读(254)  评论(0编辑  收藏  举报