我有一个包含约100000个小文件的目录(每个文件是1-3行,每个文件是一个文本文件)。目录的大小不是很大(<2GB)。该数据位于专业管理的NFS服务器中。该服务器运行Linux。我认为文件系统是ext3,但我不确定。另外,我没有对该服务器的root访问权限。
这些文件是我无法控制的大规模科学实验的输出。但是,我必须分析结果。
此目录中的任何I / O操作/处理都非常非常慢。打开文件(在python中为fopen),读取打开的文件,关闭文件都非常缓慢。在bash ls,du等中不起作用。
问题是:
Linux中某个目录中可以进行处理,打开,读取等操作的最大文件数量是多少?我知道答案取决于许多因素:fs类型,内核版本,服务器版本,硬件等。如果可能的话,我只是想凭经验而定。