Questions tagged «zfs»

ZFS是最初由Sun Microsystems开发并获得CDDL许可的现代文件系统和卷管理器。它是一种写时复制文件系统,支持大型存储阵列,防止损坏,快照,克隆,压缩,重复数据删除和NFSv4 ACL。ZFS的开源分支可以在http://open-zfs.org/上找到,这由FreeBSD和Mac OS X社区中的ZFSonlinux.org,illumos.org和ZFS开发人员支持。

1
为什么重新引导会导致ZFS镜像的一侧失效?
我最近才将大容量数据存储池(在Linux 0.6.2上为ZFS,在Debian Wheezy上为ZFS)从单设备vdev配置迁移到双向镜像vdev配置。 先前的池配置为: NAME STATE READ WRITE CKSUM akita ONLINE 0 0 0 ST4000NM0033-Z1Z1A0LQ ONLINE 0 0 0 重装完成后,一切都很好(我在重装完成后启动了清理,只是为了让系统再次遍历所有内容并确保一切正常): pool: akita state: ONLINE scan: scrub repaired 0 in 6h26m with 0 errors on Sat May 17 06:16:06 2014 config: NAME STATE READ WRITE CKSUM akita ONLINE 0 0 0 …
13 linux  zfs  mirror  udev  zfsonlinux 

1
在zfs上强制更新校验和?
最近checksum,我将非重复zfs文件系统之一的属性sha256从on(fletcher4)更改为(fletcher4),以更好地支持发送重复的复制流,如该命令所示zfs send -DR -I _starting-snaphot_ _ending-snapshot_。 但是,zfs联机帮助页中的内容是send -D: 无论数据集的dedup属性如何,都可以使用此标志,但是如果文件系统使用具有dedup功能的校验和(例如sha256),则性能会更好。 zfs联机帮助页还说明了有关该checksum属性的信息: 更改此属性仅影响新写入的数据。 我不想信任fletcher4。折衷之处在于,与SHA256不同,fletcher4不是伪随机哈希函数,因此不能被信任不会发生冲突。因此,仅当与“ verify”选项结合使用时才适用于dedup,该选项可检测并解决哈希冲突。 如何更新文件系统的校验和,最好不对系统进行脱机?
13 zfs  zfsonlinux 

1
计算ZFS RAIDZ的IOPS是否不同于计算RAID5和RAID6的IOPS?
在计算传统RAID阵列的IOPS时,可以使用以下公式(取自Symantec Connect上的IOPS v1.3入门): Ieffective = (n * Isingle) / (READ% + (F * WRITE%)) 哪里: 有效是IOPS的有效数量 Isingle是单个驱动器的平均IOPS。 n是阵列中的磁盘数 READ%是从磁盘配置文件读取的分数 WRITE%是从磁盘性能分析获取的写入次数的一部分 F是RAID写惩罚: RAID Level Write Penalty RAID-0 1 RAID-1 2 RAID-5 4 RAID-6 6 RAID-10 2 RAID-DP 2 该公式实质上是以下功能的函数: 阵列中每个驱动器的IOPS 磁盘数。更多的磁盘意味着更多的IOPS 每个写入操作的RAID损失。 RAID5和RAID6每次写入都需要4个以上的磁盘操作。控制器必须先读取该块,然后读取奇偶校验数据(两次操作),计算新的奇偶校验数据,然后更新奇偶校验块并更新数据块(再执行两次操作)。RAID6具有两个奇偶校验块,因此需要三个读取和三个写入。因此,RAID5和RAID6阵列的IOPS比RAID1少。 RAID1和RAID10仅需要2次写入,一次写入镜像中的每个磁盘。 而且要明确的是,所有这些都提供了对理论性能的估计。各种控制器和RAID方法都有一些技巧来加快其中的一些速度。 ZFS相当于RAID5和RAID6的是RAIDZ和RAIDZ2。在为RAIDZ阵列计算IOPS时,我可以使用与RAID5和RAID6相同的公式,还是ZFS具有特殊的技巧来减少写操作所需的操作数量。 在为RAIDZ阵列计算IOPS时,可以使用其他公式吗?

6
ZFS SAS / SATA控制器建议
已锁定。该问题及其答案被锁定,因为该问题是题外话,但具有历史意义。它目前不接受新的答案或互动。 我使用OpenSolaris和ZFS已有6个月了,主要是在Sun Fire x4540以及标准的Dell和HP硬件上进行的。标准Perc和HP Smart Array控制器的缺点之一是它们没有真正的“直通” JBOD模式来将单个磁盘呈现给ZFS。 可以配置多个RAID 0阵列,并使它们在ZFS中工作,但是这会影响热插拔功能(因此,在磁盘故障/更换时需要重新启动)。我对自制ZFS存储解决方案推荐使用哪种SAS / SATA控制器感到好奇。此外,电池后备写入缓存(BBWC)对ZFS存储有什么影响?

2
为什么所有ZFS快照目录都为空?
我正在将Oracle 11 Box作为ZFS存储设备运行,并且正在通过拍摄ZFS文件系统的常规快照cron。 过去,我知道如果我想从快照中抓取特定文件,则会保留一个只读副本,.zfs/snapshot/{name}/然后我就可以导航到那里并将文件拉出。这记录在Oracle网站上。 但是,前几天我去做了,发现快照目录中的ZFS目录都是空的。zfs list -t snapshot正确显示应该显示的快照列表,并.zfs/snapshots正确包含每个快照的目录,并且在每个快照中,每个ZFS文件系统都有一个目录。但是,这些目录似乎是空的。 我只是通过触摸很少使用的共享中的文件并回滚到最新的每小时快照来测试还原,这似乎运行良好。因此具有回滚功能。 Oracle是否更改了完成快照的方式?还是这里有严重的错误?
13 solaris  zfs  snapshot 

3
ZFS数据集在重新启动后消失
我已经在Centos 7中安装了ZFS(0.6.5),并且还创建了一个zpool,除了我的数据集在重新启动后消失之外,其他所有功能都可以正常工作。 我一直在尝试借助各种在线资源和博客来调试此问题,但无法获得理想的结果。重新启动后,当我发出zfs list命令时,我得到“没有可用的数据集”,并zpool list给出“没有可用的池” 在进行了很多在线研究之后,我可以通过使用zpool import -c cachefile手动导入缓存文件来使其工作,但是我仍然必须在重新启动之前运行zpool set cachefile = / etc / zfs / zpool.cache池,以便稍后在重新启动后将其导入。 这是什么systemctl status zfs-import-cache 看起来像, zfs-import-cache.service - Import ZFS pools by cache file Loaded: loaded (/usr/lib/systemd/system/zfs-import-cache.service; static) Active: inactive (dead) cat /etc/sysconfig/zfs # ZoL userland configuration. # Run `zfs mount -a` during system …

5
通过ZFS快照备份MySQL数据库
我发现许多网站都在谈论完全做到这一点,但是我缺少一些重要的细节。一般步骤是 跑 FLUSH TABLES WITH READ LOCK 拍摄ZFS快照 跑 UNLOCK TABLES 各种来源都报告说,我正在使用的InnoDB实际上并不兑现FLUSH。MySQL用户手册指出FLUSH TABLES...FOR EXPORT,InnoDB 有一个变体,但需要单独指定每个表,而不是备份整个数据库。我宁愿避免单独指定每个表,因为表的列表很可能与实际存在的表不同步。 我遇到的另一个问题是我打算做类似的事情mysql -h"$HOST" -u"$USERNAME" -p"$PASSWORD" --execute="FLUSH TABLES WITH READ LOCK"。但是,这将在会话退出后立即释放锁。这是有道理的,但也很烦人,因为在拍摄快照时我需要保持读取锁定。 我的另一个想法是使用Percona XtraBackup之类的工具进行热备份并拍摄备份快照,但是我不希望为将所有数据写入第二个位置而进行快照的费用。
12 mysql  backup  freebsd  zfs  innodb 

3
为什么Linux上的ZFS无法在AWS i2.8xlarge实例上充分利用8x SSD?
我对ZFS完全陌生,因此首先我想对它做一些简单的基准测试以了解它的行为。我想突破其性能极限,因此我预配了一个Amazon EC2 i2.8xlarge实例(几乎每小时$ 7,时间真是钱!)。该实例具有8个800GB SSD。 我fio对SSD本身进行了测试,并得到以下输出(已修剪): $ sudo fio --name randwrite --ioengine=libaio --iodepth=2 --rw=randwrite --bs=4k --size=400G --numjobs=8 --runtime=300 --group_reporting --direct=1 --filename=/dev/xvdb [trimmed] write: io=67178MB, bw=229299KB/s, iops=57324, runt=300004msec [trimmed] 57K IOPS,可进行4K随机写入。可敬。 然后,我创建了一个跨所有8个的ZFS卷。起初,我有一个raidz1vdev,其中装有所有8个SSD,但是我读到了这对性能不利的原因,所以最终得到了四个mirrorvdev,如下所示: $ sudo zpool create testpool mirror xvdb xvdc mirror xvdd xvde mirror xvdf xvdg mirror xvdh xvdi $ sudo …

2
需要替换zpool中的磁盘…感到困惑
我需要在FreeNAS上的zpool中更换损坏的磁盘。 zpool status 表演 pool: raid-5x3 state: ONLINE scrub: scrub completed after 15h52m with 0 errors on Sun Mar 30 13:52:46 2014 config: NAME STATE READ WRITE CKSUM raid-5x3 ONLINE 0 0 0 raidz1 ONLINE 0 0 0 ada5p2 ONLINE 0 0 0 gptid/a767b8ef-1c95-11e2-af4c-f46d049aaeca ONLINE 0 0 0 ada8p2 ONLINE …
12 freebsd  zfs  freenas  raidz  zpool 

1
Server 2012重复数据删除功能的技术详细信息
既然Windows Server 2012带有针对NTFS卷的重复数据删除功能,我很难找到有关它的技术细节。我可以从TechNet文档中推断出重复数据删除操作本身是一个异步过程-与SIS Groveler过去的工作方式不同-但实际上没有有关实现的详细信息(使用的算法,所需的资源,甚至是性能信息)注意事项不过是一堆拇指法则建议)。 非常感谢您提供的见解和建议,将其与Solaris的ZFS重复数据删除效率进行比较,以应对一系列情况,将是一个很棒的选择。

3
ZFS:丢失驱动器后如何恢复正确的副本数?
使用zfs,如果您copies=2丢失了包含其中一些副本的驱动器,那么如何告诉系统应为受影响的文件制作数据块的新副本?还是zfs一发现坏数据块就立即开始为额外副本添加数据块? 会擦洗吗? (v0.6.0.56-rc8,ZFS池版本28,ZFS文件系统版本5,Ubuntu 11.10)
12 zfs 

5
ZFS:在zpool中的所有磁盘上重新分配zvol?
有没有一种方法可以提示ZFS在其zpool中的所有磁盘上重新分配给定的文件系统? 我正在考虑一种方案,其中我将固定大小的ZFS卷作为FC上的LUN导出。当前的zpool很小,只有两个1TB镜像磁盘,而zvol总计为750GB。如果我要突然将zpool的大小扩展到12个1TB磁盘,我相信zvol仍然只能有效地“容纳”在前两个主轴上。 鉴于有更多的主轴=更多的IOPS,我可以使用哪种方法在所有12个主轴上“重新分配” zvol以利用它们?
12 zfs  iops  zvol 

7
ZFS替代Linux?
我的主文件服务器正在运行带有ZFS的OpenSolaris。我最初使用ZFS是因为我听到了很多很棒的事情: 自动磁盘扩展(zpool) 软件RAID(RAID-Z) 通过更换RAIDZ磁盘自动调整池大小 块级校验和 没有实际的单卷限制 “即将推出”重复数据删除 在OpenSolaris上戳了一段时间之后,确实让我很烦。我知道Fedora / CentOS和Debian / Ubuntu要好得多,而且我已经习惯了Linux相对于Solaris / BSD版本的处理方式。我想切换到Linux,但是我不知道该如何使用FS。 我不愿意使用FUSE或beta版内核来获取ZFS。Btrfs具有潜在的功能奇偶校验功能,但即使现在(我第一次研究它的几个月后),它仍然不稳定。您对Linux机器的ZFS(上面提到的所需功能)的等效建议是什么?
12 linux  filesystems  zfs 

6
如何确定FreeNAS / ZFS设置中哪个磁盘发生故障
我正在Supermicro X6DHE-XB 3U机柜中构建基于FreeNAS的服务器,该机柜具有4G RAM,16个SATA热插拔托架。它带有2x8端口3Ware RAID卡,但是我打算仅使用ZFS功能而不是硬件RAID。我的初始驱动器将是8x2TB HITACHI Deskstar 7K3000 HDS723020BLA642驱动器。 如果我使用的是基于硬件的RAID,它将在驱动器发生故障的驱动器托架上给我一个红灯。当驱动器发生故障时,它如何与ZFS一起使用?我认为无法保证sda = bay1,sdb = bay2等,那么您如何确定需要更换哪个驱动器?ZFS可以报告给SATA控制器以打开“驱动器故障”指示灯吗?它只是报告驱动器序列号吗?如果驱动器严重故障而无法报告其序列号怎么办?我认为最好记下每个驱动器的序列号,以及在投入使用之前将其插入哪个托架。还有其他“生产前”任务可以使将来更换驱动器更加容易吗?
12 zfs  freenas 

2
为什么ZFS比ext4和btrfs慢得多?
问题 我最近安装了一个新磁盘,并在其上创建了一个zpool: /# zpool create morez /dev/sdb 使用一段时间后,我注意到它非常慢: /morez# fio --name rw --rw rw --size 10G read: IOPS=19.6k, BW=76.6MiB/s (80.3MB/s)(5120MiB/66834msec) write: IOPS=19.6k, BW=76.6MiB/s (80.3MB/s)(5120MiB/66834msec) 该测试与我的实际用例非常相似。我正在从磁盘读取适量(〜10k)的图像(每个〜2 MiB)。当磁盘几乎为空时,它们一次全部写入,因此我不希望它们碎片化。 为了进行比较,我测试了ext4: /# gdisk /dev/sdb ... /# mkfs.ext4 -f /dev/sdb1 && mount /dev/sdb1 /mnt && cd /mnt /mnt# fio --name rw --rw rw --size 10G …

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.