谁能推荐一个好的照片复制检测实用程序,当我处理大约100gb的数据(多年来收集的数据)时,它会很好地工作吗?
我希望可以在Ubuntu上使用的东西。
提前致谢!
编辑:一旦检测到重复项,是否有工具可以帮助我重新组织集合并删除重复项?
Edit2:困难的部分是弄清楚一旦我得到包含数千个重复文件的输出(例如fdupes的输出),该怎么办。
如果我仍然可以安全地删除目录(例如,目录可能包含唯一文件),则该目录并不明显,该目录是其他目录的子集,依此类推。解决此问题的理想工具应该是确定文件重复,然后提供一种强大的手段来重组文件和文件夹。通过硬链接进行合并(如fslint所做的那样)确实释放了磁盘空间,但是并不能解决导致从头开始重复的根本问题,即错误的文件/目录组织。