7
有没有一种方法可以删除比fdupes -rdN更精细的重复项?
最近,我需要删除很多重复项。我正在合并三个或四个文件系统,并且我希望空间可以经济地使用。起初,fdupes它似乎是完成工作的最佳工具,但是我越来越遇到限制。 考虑命令fdupes -rdN somedirectory/。这将散列某个目录的子目录中所有文件。 并且当遇到重复项时,它将删除它们,因此所有内容只有一个副本。 但是,如果我要保留somedirectory/subdirectory1/somefile并且实际上有四个重复项,并且程序首先遇到其中一个重复项,该怎么办?然后将其删除somedirectory/subdirectory1/somefile,这是我不想要的。 我希望能够以某种方式指定要保留的重复项。到目前为止,用于处理重复项(duff,FSLint)的标准程序似乎都不允许这种行为的自动化。我不想自己动手,所以这就是为什么我问这个问题。 我希望能够写类似 killdupes -rdN --keep=filesin,somedirectories,separated,by,commas somedirectory/