我目前正在dedup=on
使用ubuntu-zfs
和导出ZFS分区netatalk
。但是,时间机器坚持要在其上创建一个稀疏束,这让我开始怀疑这是否会对重复数据删除产生任何影响,因为“文件”的概念消失了,并且块对齐也可能不是很大。 。
PS我使用dedup的整个想法是,我有几台Macbook备份到同一位置,并且它们的许多文件都相等。
附录:似乎块级对齐失败了。这是我的经验:
- 两台不同的Macbook的时间机器副本,其中有很多重复的数据(总计200 Gb)
- 将两个Macbook抄送为两个稀疏图像。
重复数据删除因素?1.01倍
关于如何设置ZFS dedup以便正确使用时间机器备份的任何想法?我是否应该开始寻找其他备份(带dedup)的替代方案?
压缩确实确实是更好的选择。不过可以加密吗?由于加密的工作原理,具有相同内容的两个加密文件可以很好地“看起来”与下面的文件系统不同。我想像一下,即使edup 是一个大文件,而不是一个稀疏的捆绑包,它也可以在非加密卷上很好地工作。
—
奥列格·