Questions tagged «raidz»

2
如何将一个磁盘添加到现有的raidz zpool?
我有一台zSolaris backupz由四个SCSI驱动器组成的OpenSolaris服务器: -bash-3.2# zpool status backupz pool: backupz state: ONLINE scrub: none requested config: NAME STATE READ WRITE CKSUM backupz ONLINE 0 0 0 raidz1 ONLINE 0 0 0 c7t0d0 ONLINE 0 0 0 c7t1d0 ONLINE 0 0 0 c7t2d0 ONLINE 0 0 0 c7t3d0 ONLINE 0 0 0 errors: …
21 solaris  zfs  raidz 

3
ZFS-RAIDZ-1真的那么糟糕吗?
我有一个带有RAID10配置(可用4TB)的4个2TB WD RE4-GP驱动器的NAS服务器。我的空间不足(剩余的可用空间不足1TB)。我有0美元可以花在更大/更多的驱动器/机箱上。 我喜欢我读到的有关ZFS数据完整性功能的知识,这些知识本身就足以让我从现有的XFS(软件)RAID10切换。然后,我了解了ZFS对RAID5的出色实现,因此我认为使用RAIDZ-1甚至可以讨价还价获得多达2TB的可用空间。 不过,我一直在读更多和更 帖子说差不多,只是从不使用RAIDZ-1。只有RAIDZ-2 +足以应付“实际”驱动器故障。当然,就我而言,RAIDZ-2没有任何意义。最好在单个池(RAID10)中使用两个镜像的vdev。 我是否想为4个2TB驱动器使用RAIDZ-1疯狂吗? 我是否应该仅使用两个镜像vdev(基本上为RAID10)的池,并希望压缩为我提供足够的额外空间? 无论哪种方式,我都计划使用压缩。我只有8GB的RAM(已满),因此,不能选择dedup。 这将在FreeNAS服务器上(即将替换当前的Ubuntu OS),以避免ZFS-on-Linux的稳定性问题。
18 zfs  freenas  raidz 

1
单个硬盘驱动器上的RAID-Z是否愚蠢?
显然,如果整个驱动器都死了,则单个磁盘上的RAID-Z将无济于事。但是其他类型的错误呢? 根据我的经验,有时我有一个无法读取的文件。在Mac OS X上,系统将挂起一段时间,然后返回错误。我将文件移到某个地方,并且我认为该文件具有错误的扇区或错误的块,甚至可能是整个错误的轨道。 我可以追溯到软盘时代,在这种情况下,手动管理磁盘故障只是一种常见的活动。当然,您将尽快更换损坏的软盘,但是有时您无法立即进行更换,因此,实践是找到损坏的区域,将其分配到文件中,然后再从不删除该文件。 第一个问题是硬盘如何发生故障?我的上述假设是否正确?坏块变坏了,但是整个驱动器仍然大部分可用,这是真的吗?如果真是这样,那么似乎RAID-Z可以使用其他块(区域)的奇偶校验来修复磁盘的坏块或坏区域。 用例用于备份。如果我每周一次将数据推送到8 TB驱动器,将其视为7 TB数据驱动器加上1 TB奇偶校验是有意义的,希望额外的奇偶校验将帮助我从位腐烂,坏扇区或故障中恢复过来。其他本地驱动器故障? 如果该理论在技术上没有缺陷,那么可以配置ZFS来做到这一点吗? 编辑:发布此问题之前,我看到了另一个问题。一种选择是将每个分区分组到多个单独的分区中。但是从概念上讲,可以将N个分区的块映射相互缠绕在一起,以便在逻辑上跨越N个分区的一个条带在物理上非常接近。这就是我的问题的重点:“可以配置ZFS来做到这一点吗?” 即只是ZFS ...而不是ZFS的分区诡计。
18 zfs  raidz 

2
需要替换zpool中的磁盘…感到困惑
我需要在FreeNAS上的zpool中更换损坏的磁盘。 zpool status 表演 pool: raid-5x3 state: ONLINE scrub: scrub completed after 15h52m with 0 errors on Sun Mar 30 13:52:46 2014 config: NAME STATE READ WRITE CKSUM raid-5x3 ONLINE 0 0 0 raidz1 ONLINE 0 0 0 ada5p2 ONLINE 0 0 0 gptid/a767b8ef-1c95-11e2-af4c-f46d049aaeca ONLINE 0 0 0 ada8p2 ONLINE …
12 freebsd  zfs  freenas  raidz  zpool 

1
4K扇区磁盘上的ZFS RAIDZ2的开销在哪里?
我首先创建了16个空文件,它们的大小分别为10亿字节。 for i in {1..16}; do dd if=/dev/zero of=/mnt/temp/block$i bs=1000000 count=1000 &> /dev/null; done 然后,我在文件上创建了越来越大的RAIDZ2卷,强制ashift = 12来模拟4K扇区驱动器,例如 zpool create tank raidz2 -o ashift=12 /mnt/temp/block1 /mnt/temp/block2... 然后比较使用df -B1以查看实际大小。 Filesystem 1B-blocks tank 12787777536 我的结果: +-------+-------------+-------------+------------+------------+ | disks | expected | actual | overhead | efficiency | +-------+-------------+-------------+------------+------------+ | 3 | 1000000000 | …
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.