删除具有重复索引的行(Pandas DataFrame和TimeSeries)


251

我正在从网络上读取一些自动气象数据。观测每5分钟发生一次,并被汇总到每个气象站的月度文件中。解析完文件后,DataFrame如下所示:

                      Sta  Precip1hr  Precip5min  Temp  DewPnt  WindSpd  WindDir  AtmPress
Date                                                                                      
2001-01-01 00:00:00  KPDX          0           0     4       3        0        0     30.31
2001-01-01 00:05:00  KPDX          0           0     4       3        0        0     30.30
2001-01-01 00:10:00  KPDX          0           0     4       3        4       80     30.30
2001-01-01 00:15:00  KPDX          0           0     3       2        5       90     30.30
2001-01-01 00:20:00  KPDX          0           0     3       2       10      110     30.28

我遇到的问题是,有时科学家会回头并更正观察结果-不是通过编辑错误的行,而是通过将重复的行附加到文件末尾来进行的。下面是这种情况的简单示例:

import pandas 
import datetime
startdate = datetime.datetime(2001, 1, 1, 0, 0)
enddate = datetime.datetime(2001, 1, 1, 5, 0)
index = pandas.DatetimeIndex(start=startdate, end=enddate, freq='H')
data1 = {'A' : range(6), 'B' : range(6)}
data2 = {'A' : [20, -30, 40], 'B' : [-50, 60, -70]}
df1 = pandas.DataFrame(data=data1, index=index)
df2 = pandas.DataFrame(data=data2, index=index[:3])
df3 = df2.append(df1)
df3
                       A   B
2001-01-01 00:00:00   20 -50
2001-01-01 01:00:00  -30  60
2001-01-01 02:00:00   40 -70
2001-01-01 03:00:00    3   3
2001-01-01 04:00:00    4   4
2001-01-01 05:00:00    5   5
2001-01-01 00:00:00    0   0
2001-01-01 01:00:00    1   1
2001-01-01 02:00:00    2   2

因此,我需要df3断然成为:

                       A   B
2001-01-01 00:00:00    0   0
2001-01-01 01:00:00    1   1
2001-01-01 02:00:00    2   2
2001-01-01 03:00:00    3   3
2001-01-01 04:00:00    4   4
2001-01-01 05:00:00    5   5

我认为添加一列行号(df3['rownum'] = range(df3.shape[0]))可以帮助我为的任何值选择最底端的行DatetimeIndex,但是我一直想弄清楚group_byor pivot(或???)语句才能使该行生效。


1
获取重复项的另一种方法是在晚上将时钟设置为夏时制,将其设置为夜间的每小时数据:1 AM,
2、3、2、3、4

Answers:


466

我建议对熊猫指数本身使用重复的方法:

df3 = df3.loc[~df3.index.duplicated(keep='first')]

尽管所有其他方法都起作用,但是对于所提供的示例,当前接受的答案到目前为止性能最低。此外,尽管groupby方法的性能稍差一些,但我发现重复的方法更具可读性。

使用提供的样本数据:

>>> %timeit df3.reset_index().drop_duplicates(subset='index', keep='first').set_index('index')
1000 loops, best of 3: 1.54 ms per loop

>>> %timeit df3.groupby(df3.index).first()
1000 loops, best of 3: 580 µs per loop

>>> %timeit df3[~df3.index.duplicated(keep='first')]
1000 loops, best of 3: 307 µs per loop

请注意,您可以通过更改keep参数保留最后一个元素。

还应该注意,该方法也可以MultiIndex使用(使用Paul的示例中指定的df1 ):

>>> %timeit df1.groupby(level=df1.index.names).last()
1000 loops, best of 3: 771 µs per loop

>>> %timeit df1[~df1.index.duplicated(keep='last')]
1000 loops, best of 3: 365 µs per loop

3
loc可能没有必要。只需执行df3 = df3[~df3.index.duplicated(keep='first')],它将删除除第一个匹配项外的所有具有重复索引的行。
lingjiankong

1
将其用于非常大的时间序列(其中重复项通常只是第一个或最后一个值)是否有意义?
cheesus

1
如果有人不介意回答,在df3 = df3.loc [〜df3.index.duplicated(keep ='first')]中会做什么?
jsl5703

3
@ jsl5703反转掩码。因此,一切都变成了真假,反之亦然。在这种情况下,这意味着我们将根据该方法选择不重复的内容。
n8yoder

115

我的原始答案现在已经过时了,仅供参考。

一个简单的解决方案是使用 drop_duplicates

df4 = df3.drop_duplicates(subset='rownum', keep='last')

对我而言,这可以在大型数据集上快速运行。

这就要求'rownum'是重复的列。在修改后的示例中,“ rownum”没有重复项,因此不会消除任何内容。我们真正想要的是将“ cols”设置为索引。我还没有找到一种方法来告诉drop_duplicates只考虑索引。

这是一个将索引添加为dataframe列的解决方案,在其上删除重复项,然后删除新列:

df3 = df3.reset_index().drop_duplicates(subset='index', keep='last').set_index('index')

如果您希望事情以正确的顺序返回,只需调用sort数据框。

df3 = df3.sort()

10
对此的另一种变化是:df.reset_index().drop_duplicates(cols='index',take_last=True).set_index('index')
Luciano

尽管此方法有效,但它还会创建DataFrame的两个临时副本,并且其性能远不如建议使用重复索引或groupby方法作为替代答案。
n8yoder 2015年

如果索引是MultiIndex,则reset_index()添加列level_0,level_1等。并且,如果索引具有名称,则将使用该名称代替“ index”标签。这使得对任何DataFrame进行正确处理都比单行代码多一点。index_label = getattr(df.index, 'names', getattr(df.index, 'name', 'index'))然后cols=index_labelset_index(index_labels)连这个也不是万无一失的(不会对未命名multiindexes工作)。
滚刀

1
将索引移至列,清除重复项并重置索引非常棒,这正是我所需要的!
mxplusb

给出了idx = df.index.name or 'index',也df2 = df.reset_index(); df2.drop_duplicates(idx, inplace=True); df2.set_index(idx, inplace=True)可以避免使用中间副本(由于inplace=True
-Anakhand

67

天啊。这实际上是如此简单!

grouped = df3.groupby(level=0)
df4 = grouped.last()
df4
                      A   B  rownum

2001-01-01 00:00:00   0   0       6
2001-01-01 01:00:00   1   1       7
2001-01-01 02:00:00   2   2       8
2001-01-01 03:00:00   3   3       3
2001-01-01 04:00:00   4   4       4
2001-01-01 05:00:00   5   5       5

跟进编辑2013-10-29 如果我比较复杂MultiIndex,我认为我喜欢这种groupby方法。这是后代的简单示例:

import numpy as np
import pandas

# fake index
idx = pandas.MultiIndex.from_tuples([('a', letter) for letter in list('abcde')])

# random data + naming the index levels
df1 = pandas.DataFrame(np.random.normal(size=(5,2)), index=idx, columns=['colA', 'colB'])
df1.index.names = ['iA', 'iB']

# artificially append some duplicate data
df1 = df1.append(df1.select(lambda idx: idx[1] in ['c', 'e']))
df1
#           colA      colB
#iA iB                    
#a  a  -1.297535  0.691787
#   b  -1.688411  0.404430
#   c   0.275806 -0.078871
#   d  -0.509815 -0.220326
#   e  -0.066680  0.607233
#   c   0.275806 -0.078871  # <--- dup 1
#   e  -0.066680  0.607233  # <--- dup 2

这是重要的部分

# group the data, using df1.index.names tells pandas to look at the entire index
groups = df1.groupby(level=df1.index.names)  
groups.last() # or .first()
#           colA      colB
#iA iB                    
#a  a  -1.297535  0.691787
#   b  -1.688411  0.404430
#   c   0.275806 -0.078871
#   d  -0.509815 -0.220326
#   e  -0.066680  0.607233

如果他们有名字,否则(如果一个名字为None)可以说,level=[0,1]如果有2个级别,则可以工作df1.groupby(level=[0,1]).last()。这应该是熊猫的一部分,以作为对drop_duplicates
dashesy

@dashesy是的。使用df.index.names只是对索引的所有级别进行分组的一种简便方法。
Paul H

很好的解决方案,谢谢!我还要补充一点,这适用于xarray处理重复的DateTime索引以及make ds.resampleds.groupbyoperation失败
drg 18'May

修改我先前的评论:xarray只要您将更grouped = df3.groupby(level=0)改为grouped = df3.groupby(dim='time')或包含重复的任何尺​​寸,它都可以使用
drg

4

不幸的是,我不认为熊猫允许人们放弃指数。我建议以下内容:

df3 = df3.reset_index() # makes date column part of your data
df3.columns = ['timestamp','A','B','rownum'] # set names
df3 = df3.drop_duplicates('timestamp',take_last=True).set_index('timestamp') #done!

1

如果像我这样的人喜欢使用熊猫点符号(例如管道)来进行可链接的数据操作,则以下内容可能会有用:

df3 = df3.query('~index.duplicated()')

这将启用链接语句,如下所示:

df3.assign(C=2).query('~index.duplicated()').mean()

我尝试了此操作,但无法正常工作。.我收到如下错误:TypeError: 'Series' objects are mutable, thus they cannot be hashed..这实际上对您有用吗?
Onno Eberhard

1

删除重复项(保留第一)

idx = np.unique( df.index.values, return_index = True )[1]
df = df.iloc[idx]

删除重复项(保留最后)

df = df[::-1]
df = df.iloc[ np.unique( df.index.values, return_index = True )[1] ]

测试:使用OP的数据进行1万次循环

numpy method - 3.03 seconds
df.loc[~df.index.duplicated(keep='first')] - 4.43 seconds
df.groupby(df.index).first() - 21 seconds
reset_index() method - 29 seconds
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.