熊猫groupby排序


166

我想按两列对数据框进行分组,然后对各组中的汇总结果进行排序。

In [167]:
df

Out[167]:
count   job source
0   2   sales   A
1   4   sales   B
2   6   sales   C
3   3   sales   D
4   7   sales   E
5   5   market  A
6   3   market  B
7   2   market  C
8   4   market  D
9   1   market  E

In [168]:
df.groupby(['job','source']).agg({'count':sum})

Out[168]:
            count
job     source  
market  A   5
        B   3
        C   2
        D   4
        E   1
sales   A   2
        B   4
        C   6
        D   3
        E   7

现在,我想在每个组中按降序对计数列进行排序。然后只取前三行。得到类似的东西:

            count
job     source  
market  A   5
        D   4
        B   3
sales   E   7
        C   6
        B   4

Answers:


147

您实际上想要做的是再次使用groupby(在第一个groupby的结果上):对每个组的前三个元素进行排序并取其值。

从第一个分组依据的结果开始:

In [60]: df_agg = df.groupby(['job','source']).agg({'count':sum})

我们按索引的第一级分组:

In [63]: g = df_agg['count'].groupby(level=0, group_keys=False)

然后,我们要对每个组进行排序(“排序”)并采用前三个元素:

In [64]: res = g.apply(lambda x: x.order(ascending=False).head(3))

但是,为此,有一个快捷功能可以实现nlargest

In [65]: g.nlargest(3)
Out[65]:
job     source
market  A         5
        D         4
        B         3
sales   E         7
        C         6
        B         4
dtype: int64

是否有一种方法可以汇总每个组的前三个结果中未包含的所有内容,并将它们添加到每个作业的“其他”源组中?
JoeDanger 2015年

30
order已弃用,sort_values而不是使用
zthomas.nc

感谢您的出色回答。再进一步,是否有一种方法可以根据groupby列中的值分配排序顺序?例如,如果值为“ Buy”,则升序排序;如果值为“ Sell”,则降序排序。
Bowen Liu

172

您也可以一次性完成,方法是先进行排序,然后使用head进行每个组的前3个。

In[34]: df.sort_values(['job','count'],ascending=False).groupby('job').head(3)

Out[35]: 
   count     job source
4      7   sales      E
2      6   sales      C
1      4   sales      B
5      5  market      A
8      4  market      D
6      3  market      B

13
是否groupby保证订单被保留?
toto_tico

51
看来确实如此;从groupby的文档中groupby保留每个组内的行顺序
toto_tico

10
toto_tico-是正确的,但是在解释该声明时要格外小心。在单个组中保留行的顺序,但是默认情况下groupby具有sort = True语句,这意味着组本身可能已在键上排序。换句话说,如果我的数据框具有键(输入)3 2 2 1,则按对象分组将按1 2 3的顺序显示3个组(排序)。使用sort = False可以确保保留组顺序和行顺序。
user2103050 '18 -10-9

4
head(3)给出3个以上的结果?
纳宾

27

这是另一个在排序顺序上排在前3位并在组内排序的示例:

In [43]: import pandas as pd                                                                                                                                                       

In [44]:  df = pd.DataFrame({"name":["Foo", "Foo", "Baar", "Foo", "Baar", "Foo", "Baar", "Baar"], "count_1":[5,10,12,15,20,25,30,35], "count_2" :[100,150,100,25,250,300,400,500]})

In [45]: df                                                                                                                                                                        
Out[45]: 
   count_1  count_2  name
0        5      100   Foo
1       10      150   Foo
2       12      100  Baar
3       15       25   Foo
4       20      250  Baar
5       25      300   Foo
6       30      400  Baar
7       35      500  Baar


### Top 3 on sorted order:
In [46]: df.groupby(["name"])["count_1"].nlargest(3)                                                                                                                               
Out[46]: 
name   
Baar  7    35
      6    30
      4    20
Foo   5    25
      3    15
      1    10
dtype: int64


### Sorting within groups based on column "count_1":
In [48]: df.groupby(["name"]).apply(lambda x: x.sort_values(["count_1"], ascending = False)).reset_index(drop=True)
Out[48]: 
   count_1  count_2  name
0       35      500  Baar
1       30      400  Baar
2       20      250  Baar
3       12      100  Baar
4       25      300   Foo
5       15       25   Foo
6       10      150   Foo
7        5      100   Foo

9

试试这个代替

执行“ groupby”并按降序排序的简单方法

df.groupby(['companyName'])['overallRating'].sum().sort_values(ascending=False).head(20)

8

如果您不需要汇总一列,请使用@tvashtar的答案。如果您确实需要求和,则可以使用@joris的答案或与此非常相似的答案。

df.groupby(['job']).apply(lambda x: (x.groupby('source')
                                      .sum()
                                      .sort_values('count', ascending=False))
                                     .head(3))
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.