Python Pandas-查找两个数据框之间的差异


103

我有两个数据帧df1和df2,其中df2是df1的子集。我如何获得一个新的数据帧(df3),这是两个数据帧之间的区别?

换句话说,一个数据帧具有df1中所有不在df2中的行/列?

在此处输入图片说明


3
最简单的方法取决于数据帧的结构(即是否可以使用索引等)。这是一个很好的例子,说明了为什么您应该在熊猫问题中始终包含可复制的例子
cmaher

1
我添加了数据帧示例图像
userPyGeo,

Answers:


162

通过使用 drop_duplicates

pd.concat([df1,df2]).drop_duplicates(keep=False)

Update :

Above method only working for those dataframes they do not have duplicate itself, For example

df1=pd.DataFrame({'A':[1,2,3,3],'B':[2,3,4,4]})
df2=pd.DataFrame({'A':[1],'B':[2]})

它将输出如下所示,这是错误的

错误的输出:

pd.concat([df1, df2]).drop_duplicates(keep=False)
Out[655]: 
   A  B
1  2  3

正确的输出

Out[656]: 
   A  B
1  2  3
2  3  4
3  3  4

如何实现呢?

方法1:isin与一起使用tuple

df1[~df1.apply(tuple,1).isin(df2.apply(tuple,1))]
Out[657]: 
   A  B
1  2  3
2  3  4
3  3  4

方法2:mergeindicator

df1.merge(df2,indicator = True, how='left').loc[lambda x : x['_merge']!='both']
Out[421]: 
   A  B     _merge
1  2  3  left_only
2  3  4  left_only
3  3  4  left_only

4
寻找重复项时,您还可以确定要考虑哪些列:pd.concat([df1,df2]).drop_duplicates(subset = ['col1','col2'], keep=False)
Szpaqn

1
@Szpaqn注意,此方法将无法处理特殊情况。:-)
BENY

请注意,如果您的一种数据类型为float(因为12.00000000001 != 12),这可能会导致意外行保留在结果中。更好的做法是在两个数据帧中找到ID的设置交集,并据此获得差值。
贾金

1
@DtechNet,您需要使两个数据框具有相同的名称
BENY

2
方法2(indicator=True)是一种非常通用且有用的工具,我很乐意在此答案的顶部看到它,但是使用“外部”而不是“左侧”联接可以涵盖所有3种情况。
mirekphd

34

对于行,请尝试以下操作,Name联合索引列在哪里(可以是多个公共列的列表,也可以指定left_onright_on):

m = df1.merge(df2, on='Name', how='outer', suffixes=['', '_'], indicator=True)

indicator=True设置非常有用,因为它添加了一个名为的列_merge,并且在df1和之间进行了所有更改df2,分为3种可能的类型:“ left_only”,“ right_only”或“ both”。

对于列,请尝试以下操作:

set(df1.columns).symmetric_difference(df2.columns)

9
唐纳德关心评论?mergewithindicator=True是比较按给定字段比较数据帧的经典解决方案。
jpp

9

接受的答案方法1将不适用于内部具有NaN的数据帧,例如pd.np.nan != pd.np.nan。我不确定这是否是最好的方法,但是可以避免

df1[~df1.astype(str).apply(tuple, 1).isin(df2.astype(str).apply(tuple, 1))]

7

edit2,我想出了一个无需设置索引的新解决方案

newdf=pd.concat([df1,df2]).drop_duplicates(keep=False)

好吧,我发现最高投票的答案已经包含了我所想的。是的,我们只能在每两个df中没有重复的情况下使用此代码。


我有一个棘手的方法。首先,我们将“名称”设置为问题给出的两个数据框的索引。由于我们在两个df中具有相同的“名称”,因此我们可以从“较大” df中删除“较小” df的索引。这是代码。

df1.set_index('Name',inplace=True)
df2.set_index('Name',inplace=True)
newdf=df1.drop(df2.index)

1
您可能是说pd.concat([df1,df2])。drop_duplicates(keep = False)
Manaslu

4
import pandas as pd
# given
df1 = pd.DataFrame({'Name':['John','Mike','Smith','Wale','Marry','Tom','Menda','Bolt','Yuswa',],
    'Age':[23,45,12,34,27,44,28,39,40]})
df2 = pd.DataFrame({'Name':['John','Smith','Wale','Tom','Menda','Yuswa',],
    'Age':[23,12,34,44,28,40]})

# find elements in df1 that are not in df2
df_1notin2 = df1[~(df1['Name'].isin(df2['Name']) & df1['Age'].isin(df2['Age']))].reset_index(drop=True)

# output:
print('df1\n', df1)
print('df2\n', df2)
print('df_1notin2\n', df_1notin2)

# df1
#     Age   Name
# 0   23   John
# 1   45   Mike
# 2   12  Smith
# 3   34   Wale
# 4   27  Marry
# 5   44    Tom
# 6   28  Menda
# 7   39   Bolt
# 8   40  Yuswa
# df2
#     Age   Name
# 0   23   John
# 1   12  Smith
# 2   34   Wale
# 3   44    Tom
# 4   28  Menda
# 5   40  Yuswa
# df_1notin2
#     Age   Name
# 0   45   Mike
# 1   27  Marry
# 2   39   Bolt

“〜”是什么意思?
PiotrekLeśniak20年

“〜”不适用于布尔索引。请参阅:pandas.pydata.org/pandas-docs/stable/user_guide/...
SpeedCoder5

3

也许是一种简单的单行代码,具有相同或不同的列名。即使df2 ['Name2']包含重复值也可以使用。

newDf = df1.set_index('Name1')
           .drop(df2['Name2'], errors='ignore')
           .reset_index(drop=False)

2
简单有效。添加了错误='ignore',以解决目标值不在源中(即交集)并且最终重置索引带来与原始df相似的df的问题。
MrE '20

1

正如这里 提到的

df1[~df1.apply(tuple,1).isin(df2.apply(tuple,1))]

是正确的解决方案,但是如果

df1=pd.DataFrame({'A':[1],'B':[2]})
df2=pd.DataFrame({'A':[1,2,3,3],'B':[2,3,4,4]})

在这种情况下,上述解决方案将提供 Empty DataFrame,而应该concat在从每个datframe中删除重复项之后使用method。

采用 concate with drop_duplicates

df1=df1.drop_duplicates(keep="first") 
df2=df2.drop_duplicates(keep="first") 
pd.concat([df1,df2]).drop_duplicates(keep=False)

问题的作者要求返回df1中所有不在df2中的值。因此,df1[~df1.apply(tuple,1).isin(df2.apply(tuple,1))]即使在这种情况下,也是正确的答案。如果您想获取df1或df2中的值,但不能同时获取两者,那么建议的方法是正确的(警告是从原始数据帧中删除重复项)。
ira

0

@liangli解决方案的细微变化,不需要更改现有数据帧的索引:

newdf = df1.drop(df1.join(df2.set_index('Name').index))

0

通过索引查找差异。假设df1是df2的子集,并且在进行子集设置时将索引结转

df1.loc[set(df1.index).symmetric_difference(set(df2.index))].dropna()

# Example

df1 = pd.DataFrame({"gender":np.random.choice(['m','f'],size=5), "subject":np.random.choice(["bio","phy","chem"],size=5)}, index = [1,2,3,4,5])

df2 =  df1.loc[[1,3,5]]

df1

 gender subject
1      f     bio
2      m    chem
3      f     phy
4      m     bio
5      f     bio

df2

  gender subject
1      f     bio
3      f     phy
5      f     bio

df3 = df1.loc[set(df1.index).symmetric_difference(set(df2.index))].dropna()

df3

  gender subject
2      m    chem
4      m     bio


0

除了可接受的答案之外,我还想提出一个更宽泛的解决方案,该解决方案可以找到带有/的两个数据帧的2D集合差异(它们可能对于两个数据帧都不相同)。同样,该方法还允许为数据框比较设置元素的公差(使用)indexcolumnsfloatnp.isclose


import numpy as np
import pandas as pd

def get_dataframe_setdiff2d(df_new: pd.DataFrame, 
                            df_old: pd.DataFrame, 
                            rtol=1e-03, atol=1e-05) -> pd.DataFrame:
    """Returns set difference of two pandas DataFrames"""

    union_index = np.union1d(df_new.index, df_old.index)
    union_columns = np.union1d(df_new.columns, df_old.columns)

    new = df_new.reindex(index=union_index, columns=union_columns)
    old = df_old.reindex(index=union_index, columns=union_columns)

    mask_diff = ~np.isclose(new, old, rtol, atol)

    df_bool = pd.DataFrame(mask_diff, union_index, union_columns)

    df_diff = pd.concat([new[df_bool].stack(),
                         old[df_bool].stack()], axis=1)

    df_diff.columns = ["New", "Old"]

    return df_diff

例:

In [1]

df1 = pd.DataFrame({'A':[2,1,2],'C':[2,1,2]})
df2 = pd.DataFrame({'A':[1,1],'B':[1,1]})

print("df1:\n", df1, "\n")

print("df2:\n", df2, "\n")

diff = get_dataframe_setdiff2d(df1, df2)

print("diff:\n", diff, "\n")
Out [1]

df1:
   A  C
0  2  2
1  1  1
2  2  2 

df2:
   A  B
0  1  1
1  1  1 

diff:
     New  Old
0 A  2.0  1.0
  B  NaN  1.0
  C  2.0  NaN
1 B  NaN  1.0
  C  1.0  NaN
2 A  2.0  NaN
  C  2.0  NaN 
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.