Time Machine,ZFS和重复数据删除


8

我目前正在dedup=on使用ubuntu-zfs和导出ZFS分区netatalk。但是,时间机器坚持要在其上创建一个稀疏束,这让我开始怀疑这是否会对重复数据删除产生任何影响,因为“文件”的概念消失了,并且块对齐也可能不是很大。 。

PS我使用dedup的整个想法是,我有几台Macbook备份到同一位置,并且它们的许多文件都相等。


附录:似乎块级对齐失败了。这是我的经验:

  • 两台不同的Macbook的时间机器副本,其中有很多重复的数据(总计200 Gb)
  • 将两个Macbook抄送为两个稀疏图像。

重复数据删除因素?1.01倍


关于如何设置ZFS dedup以便正确使用时间机器备份的任何想法?我是否应该开始寻找其他备份(带dedup)的替代方案?


压缩确实确实是更好的选择。不过可以加密吗?由于加密的工作原理,具有相同内容的两个加密文件可以很好地“看起来”与下面的文件系统不同。我想像一下,即使edup 是一个大文件,而不是一个稀疏的捆绑包,它也可以在非加密卷上很好地工作。
奥列格·

Answers:


7

ZFS上的重复数据删除是块级的,因此它不依赖于文件的概念。消除重复数据删除的唯一方法是,如果稀疏束中的文件偏移量与块大小的取模值不总是相同。由于ZFS可以使用大于sparsebundle内部HFS +文件系统的块大小的可变块大小,因此不能保证正确的对齐方式,但是也不能保证重复数据删除会失败。

如果您担心空间,则可能还需要在ZFS池上启用压缩。它带来了额外的CPU开销,但实际上可以提高有效的磁盘吞吐量。

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.