如何释放熊猫数据框使用的内存?


111

我在熊猫中打开了一个非常大的csv文件,如下所示。

import pandas
df = pandas.read_csv('large_txt_file.txt')

完成此操作后,内存使用量将增加2GB,这是预期的,因为此文件包含数百万行。我的问题出在我需要释放此内存的时候。我跑了...

del df

但是,我的内存使用没有下降。这是释放熊猫数据帧使用的内存的错误方法吗?如果是,正确的方法是什么?


3
gcgc.collect()
没错

del df创建df后不直接调用对吗?我认为在删除df时就有对df的引用。因此,它不会被删除,而是会删除名称。
Marlon Abeykoon,2016年

4
是否将垃圾回收器回收的内存实际上退还给OS取决于实现。垃圾收集器唯一的保证就是回收的内存可以由当前的Python进程用于其他用途,而不是从操作系统中请求甚至更多的内存。
chepner '16

创建后,我立即致电del df。我没有向df添加任何其他引用。我所做的就是打开ipython并运行这三行代码。如果我在占用大量内存的其他对象上运行相同的代码,例如numpy数组。del nparray运作完美
b10hazard '16

@ b10hazard:df = ''代码末尾的代码怎么样?似乎要清除数据帧使用的RAM。
jibounet

Answers:


119

减少Python中的内存使用量非常困难,因为Python实际上并未将内存释放回操作系统。如果删除对象,则内存可用于新的Python对象,但不能free()返回系统(请参阅此问题)。

如果坚持使用数字numpy数组,则将释放它们,但装箱的对象不会释放。

>>> import os, psutil, numpy as np
>>> def usage():
...     process = psutil.Process(os.getpid())
...     return process.get_memory_info()[0] / float(2 ** 20)
... 
>>> usage() # initial memory usage
27.5 

>>> arr = np.arange(10 ** 8) # create a large array without boxing
>>> usage()
790.46875
>>> del arr
>>> usage()
27.52734375 # numpy just free()'d the array

>>> arr = np.arange(10 ** 8, dtype='O') # create lots of objects
>>> usage()
3135.109375
>>> del arr
>>> usage()
2372.16796875  # numpy frees the array, but python keeps the heap big

减少数据框的数量

Python使内存保持高水位,但是我们可以减少创建的数据帧的总数。修改数据框时,请选择inplace=True,这样就不会创建副本。

另一个常见的陷阱是在ipython中保留以前创建的数据帧的副本:

In [1]: import pandas as pd

In [2]: df = pd.DataFrame({'foo': [1,2,3,4]})

In [3]: df + 1
Out[3]: 
   foo
0    2
1    3
2    4
3    5

In [4]: df + 2
Out[4]: 
   foo
0    3
1    4
2    5
3    6

In [5]: Out # Still has all our temporary DataFrame objects!
Out[5]: 
{3:    foo
 0    2
 1    3
 2    4
 3    5, 4:    foo
 0    3
 1    4
 2    5
 3    6}

您可以通过键入%reset Out清除历史记录来解决此问题。另外,您可以调整ipython保留的历史记录数量ipython --cache-size=5(默认为1000)。

减少数据框大小

尽可能避免使用对象dtype。

>>> df.dtypes
foo    float64 # 8 bytes per value
bar      int64 # 8 bytes per value
baz     object # at least 48 bytes per value, often more

带有对象dtype的值被装箱,这意味着numpy数组仅包含一个指针,并且堆中对于数据框中的每个值都有一个完整的Python对象。这包括字符串。

尽管numpy支持数组中固定大小的字符串,但pandas不支持(这会引起用户混乱)。这可以产生很大的变化:

>>> import numpy as np
>>> arr = np.array(['foo', 'bar', 'baz'])
>>> arr.dtype
dtype('S3')
>>> arr.nbytes
9

>>> import sys; import pandas as pd
>>> s = pd.Series(['foo', 'bar', 'baz'])
dtype('O')
>>> sum(sys.getsizeof(x) for x in s)
120

您可能要避免使用字符串列,或者找到一种将字符串数据表示为数字的方法。

如果您的数据框包含许多重复值(NaN非常常见),则可以使用稀疏数据结构来减少内存使用量:

>>> df1.info()
<class 'pandas.core.frame.DataFrame'>
Int64Index: 39681584 entries, 0 to 39681583
Data columns (total 1 columns):
foo    float64
dtypes: float64(1)
memory usage: 605.5 MB

>>> df1.shape
(39681584, 1)

>>> df1.foo.isnull().sum() * 100. / len(df1)
20.628483479893344 # so 20% of values are NaN

>>> df1.to_sparse().info()
<class 'pandas.sparse.frame.SparseDataFrame'>
Int64Index: 39681584 entries, 0 to 39681583
Data columns (total 1 columns):
foo    float64
dtypes: float64(1)
memory usage: 543.0 MB

查看内存使用情况

您可以查看内存使用情况(docs):

>>> df.info()
<class 'pandas.core.frame.DataFrame'>
Int64Index: 39681584 entries, 0 to 39681583
Data columns (total 14 columns):
...
dtypes: datetime64[ns](1), float64(8), int64(1), object(4)
memory usage: 4.4+ GB

从熊猫0.17.1开始,您还df.info(memory_usage='deep')可以查看包括对象在内的内存使用情况。


2
这必须标记为“已接受答案”。它简要但清晰地说明了python即使真正不需要时也如何保持在内存中。保存内存的技巧都是明智且有用的。正如我只想补充用“多处理”还有一个小窍门(如@阿米的答案解释。
pedram bashiri

46

如评论中所述,有一些尝试的方法:gc.collect(@EdChum)可能清除东西。至少从我的经验来看,这些东西有时会起作用,而通常却不会。

但是,总有一件事情总是可行的,因为它是在操作系统而不是语言级别上完成的。

假设您有一个函数,该函数创建一个中间庞大的DataFrame,并返回较小的结果(也可能是DataFrame):

def huge_intermediate_calc(something):
    ...
    huge_df = pd.DataFrame(...)
    ...
    return some_aggregate

那如果你做类似的事情

import multiprocessing

result = multiprocessing.Pool(1).map(huge_intermediate_calc, [something_])[0]

然后,该函数在不同的过程中执行。该过程完成后,操作系统将收回其使用的所有资源。实际上,Python,熊猫(垃圾收集器)无法阻止这种情况。


1
@ b10hazard即使没有熊猫,我也从未完全理解Python内存在实践中是如何工作的。这种唯一的技巧是我唯一依靠的东西。
阿米·塔沃里

9
真的很好。但是,在ipython环境(如jupyter笔记本)中,我发现您需要使用.close()和.join()或.terminate()池来摆脱生成的进程。从Python 3.3开始,最简单的方法是使用上下文管理协议:with multiprocessing.Pool(1) as pool: result = pool.map(huge_intermediate_calc, [something])完成后立即关闭池。
Zertrin

2
这很好,只是不要忘了任务完成后终止并加入池。
Andrey Nikishaev

1
在阅读了几次有关如何从python对象获取内存的信息后,这似乎是实现此目的的最佳方法。创建一个进程,当该进程被终止时,操作系统将释放内存。
muammar

1
在创建池时,它可能会帮助某人,尝试使用maxtasksperchild = 1来释放进程并在完成工作后生成一个新进程。
giwiro

22

这解决了为我释放内存的问题!!!

del [[df_1,df_2]]
gc.collect()
df_1=pd.DataFrame()
df_2=pd.DataFrame()

数据框将显式设置为null


1
为什么将数据帧添加到子列表[[df_1,df_2]]中?有什么具体原因吗?请解释。
goks'Apr

5
您为什么不只使用最后两个语句?我认为您不需要前两个陈述。
spacedustpi

3

del df如果删除时有任何引用,将不会df删除。因此,您需要删除所有对其的引用,del df以释放内存。

因此,应删除绑定到df的所有实例以触发垃圾回收。

使用objgragh来检查哪些对象被保留。


链接指向objgraph(mg.pov.lt/objgraph),除非您有objgragh,否则它是您输入的错字
SatZ

1

似乎glibc有一个问题会影响Pandas中的内存分配:https : //github.com/pandas-dev/pandas/issues/2659

对这个问题的详细猴补丁解决了我的问题:

# monkeypatches.py

# Solving memory leak problem in pandas
# https://github.com/pandas-dev/pandas/issues/2659#issuecomment-12021083
import pandas as pd
from ctypes import cdll, CDLL
try:
    cdll.LoadLibrary("libc.so.6")
    libc = CDLL("libc.so.6")
    libc.malloc_trim(0)
except (OSError, AttributeError):
    libc = None

__old_del = getattr(pd.DataFrame, '__del__', None)

def __new_del(self):
    if __old_del:
        __old_del(self)
    libc.malloc_trim(0)

if libc:
    print('Applying monkeypatch for pd.DataFrame.__del__', file=sys.stderr)
    pd.DataFrame.__del__ = __new_del
else:
    print('Skipping monkeypatch for pd.DataFrame.__del__: libc or malloc_trim() not found', file=sys.stderr)
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.