Questions tagged «zfs»

ZFS是最初由Sun Microsystems开发并获得CDDL许可的现代文件系统和卷管理器。它是一种写时复制文件系统,支持大型存储阵列,防止损坏,快照,克隆,压缩,重复数据删除和NFSv4 ACL。ZFS的开源分支可以在http://open-zfs.org/上找到,这由FreeBSD和Mac OS X社区中的ZFSonlinux.org,illumos.org和ZFS开发人员支持。

3
通过分区不同大小的磁盘来提高可靠性?
我知道ZFS更喜欢所有具有相同大小的磁盘。但是,如果我有两个大小不同的磁盘(1TB和1.5TB),我希望具有一定的冗余性,但不能进行镜像。因此,我将两个磁盘分成5个分区,每个分区大约500GB,并创建一个“ raidz”池... zfs很高兴。它的设置实际上增加了可靠性吗?想法是,如果磁盘没有完全崩溃,而只有一部分发生故障,我仍然可以访问数据吗?
8 zfs  redundancy 

1
几个月后ZFS的极端减慢
我有一个通用服务器,可以为许多用户提供邮件,DNS,Web,数据库和其他一些服务。 它具有3.40 GHz的Xeon E3-1275、16 GB ECC RAM。运行Linux内核4.2.3,以及Linux上的ZFS 0.6.5.3。 磁盘布局是2个Seagate ST32000641AS 2 TB驱动器和1个Samsung 840 Pro 256 GB SSD 我在RAID-1镜像中拥有2个HD,而SSD充当了缓存和日志设备,全部在ZFS中进行管理。 当我第一次设置系统时,它的速度非常快。没有真正的基准,只是...快速。 现在,我注意到速度极慢,特别是在保存所有maildirs的文件系统上。对于仅46 GB的邮件,每晚进行备份需要90分钟以上。有时,备份会导致极高的负载,以至于系统长达6个小时几乎无响应。 在这些减速期间,我已经运行zpool iostat zroot(我的池名为zroot),并且看到的写入速度为100-200kbytes / sec。没有明显的IO错误,磁盘似乎并没有特别用力,但是读取速度却几乎无法使用。 奇怪的是,我在运行FreeBSD的另一台机器上拥有完全相同的体验,但使用的是类似规格的硬件,尽管没有SSD。它工作了好几个月,然后以相同的方式变慢了。 我一直怀疑:我使用zfs-auto-snapshot来创建每个文件系统的滚动快照。它会创建15分钟,每小时,每天和每月的快照,并保留一定数量的快照,并删除最旧的快照。这意味着随着时间的推移,每个文件系统上已经创建并销毁了数千个快照。这是我可以想到的唯一持续进行的文件系统级操作,具有累积作用。我尝试销毁所有快照(但保持进程运行,创建新快照),但没有发现任何变化。 不断创建和销毁快照是否存在问题?我发现拥有它们是一个非常有价值的工具,并且导致人们相信它们(除了磁盘空间之外)或多或少为零成本。 还有其他可能导致此问题的原因吗? 编辑:命令输出 输出zpool list: NAME SIZE ALLOC FREE EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT zroot 1.81T 282G 1.54T - 22% 15% …

2
为什么ZFS对磁盘的Duff扇区不做任何事情?
我的印象是,如果从ZFS池读取期间发生I / O错误,则会发生两件事: 该故障将记录在相关设备的READ或CKSUM统计信息中,并向上向池级别传播。 冗余数据将用于重建所请求的块,所请求的块返回给调用者,并且如果达夫驱动器仍然是官能重写块到它,OR 如果没有可用的冗余数据来纠正读取错误,将返回一个I / O错误。 看来我的镜像设置中的一个磁盘出现了坏扇区。这本身并不令人震惊;这样的事情发生了,这就是我有冗余的原因(确切地说,是一个双向镜像)。每次我清理池或阅读特定目录中的文件时(我还没有确定确切的错误文件),以下内容会在dmesg中弹出,显然带有不同的时间戳: Nov 1 09:54:26 yeono kernel: [302621.236549] ata6.00: exception Emask 0x0 SAct 0x9c10 SErr 0x0 action 0x0 Nov 1 09:54:26 yeono kernel: [302621.236557] ata6.00: irq_stat 0x40000008 Nov 1 09:54:26 yeono kernel: [302621.236566] ata6.00: failed command: READ FPDMA QUEUED Nov 1 09:54:26 yeono …

2
阵列可用空间要求
一般的经验法则是,不要使用超过80-85%的容量,否则性能会急剧下降,并可能发生其他不良情况。 在8TB阵列上,这大约有1.6TB的空间必须留空!一个40TB的阵列大约需要8TB的可用空间! 这仍然是更大数组的惯例吗?我在桌上留了太多磁盘空间吗?

1
4K扇区磁盘上的ZFS RAIDZ2的开销在哪里?
我首先创建了16个空文件,它们的大小分别为10亿字节。 for i in {1..16}; do dd if=/dev/zero of=/mnt/temp/block$i bs=1000000 count=1000 &> /dev/null; done 然后,我在文件上创建了越来越大的RAIDZ2卷,强制ashift = 12来模拟4K扇区驱动器,例如 zpool create tank raidz2 -o ashift=12 /mnt/temp/block1 /mnt/temp/block2... 然后比较使用df -B1以查看实际大小。 Filesystem 1B-blocks tank 12787777536 我的结果: +-------+-------------+-------------+------------+------------+ | disks | expected | actual | overhead | efficiency | +-------+-------------+-------------+------------+------------+ | 3 | 1000000000 | …

1
/ dev / disk / by-id下同一硬盘的scsi和ata条目
我正在尝试使用4个裸驱动器设置ZFS池,这些驱动器已通过SATA热插拔背板连接到Ubuntu系统。 这些是日立SATA驱动器。列出的内容时/dev/disk/by-id,每个驱动器都有两个条目: root@scorpius:/dev/disk/by-id# ls | grep Hitachi ata-Hitachi_HDS5C3030ALA630_MJ1323YNG0ZJ7C ata-Hitachi_HDS5C3030ALA630_MJ1323YNG1064C ata-Hitachi_HDS5C3030ALA630_MJ1323YNG190AC ata-Hitachi_HDS5C3030ALA630_MJ1323YNG1DGPC scsi-SATA_Hitachi_HDS5C30_MJ1323YNG0ZJ7C scsi-SATA_Hitachi_HDS5C30_MJ1323YNG1064C scsi-SATA_Hitachi_HDS5C30_MJ1323YNG190AC scsi-SATA_Hitachi_HDS5C30_MJ1323YNG1DGPC 我知道这些是相同的驱动器,因为我记下了序列号,并且该系统中的所有其他驱动器都是Seagate或WD。例如,第一个的序列号是YNG0ZJ7C。 为什么每个驱动器都有两个条目?更重要的是,当我创建ZFS池时,应该使用哪个池;在scsi-一个或ata-一个?
8 linux  zfs  sata  scsi 

2
ZVOL的奇怪的ZFS磁盘空间使用情况报告
我们在FreeBSD 10.0-CURRENT主机上有一个100G ZVOL,声称使用了176G磁盘空间: root@storage01:~ # zfs get all zroot/DATA/vtest NAME PROPERTY VALUE SOURCE zroot/DATA/vtest type volume - zroot/DATA/vtest creation Fri May 24 20:44 2013 - zroot/DATA/vtest used 176G - zroot/DATA/vtest available 10.4T - zroot/DATA/vtest referenced 176G - zroot/DATA/vtest compressratio 1.00x - zroot/DATA/vtest reservation none default zroot/DATA/vtest volsize 100G local zroot/DATA/vtest …
8 freebsd  zfs  zvol 

6
在运行FreeBSD的SuperMicro服务器上识别磁盘
我正在ZPool中具有6个磁盘的SuperMicro 2U服务器上运行。我想通过从FreeBSD中的工具运行命令来使用驱动器托架LED标识每个驱动器托架。有没有办法做到这一点? 我知道驱动器是否在Raid Card上运行,我可以使用Raid Card实用程序来识别每个磁盘,但就我而言,没有硬件RAID。 在FreeBSD或Linux中是否有工具可以做到这一点?

1
NFSv4如何在FreeBSD上共享ZFS文件系统?
使用FreeBSD 9,并创建了一个ZFS文件系统,如下所示 zfs create tank/project1 zfs set sharenfs=on tank/project1 在网络上的FreeBSD上设置NFSv3的方法有很多,但是当ZFS完成NFS共享时,我找不到任何一个NFSv4。 例如,该如何说我必须重新启动(NFSv3)nfsd -u -t -n 4,但我什至没有nfsd。 当我做 # echo /usr/ports/*/*nfs* /usr/ports/net-mgmt/nfsen /usr/ports/net/nfsshell /usr/ports/net/pcnfsd /usr/ports/net/unfs3 /usr/ports/sysutils/fusefs-chironfs /usr/ports/sysutils/fusefs-funionfs /usr/ports/sysutils/fusefs-unionfs # 我没有看到任何可以安装的NFSv4服务器pkg_add。 题 如何安装和设置NFSv4,以便可以从Linux主机上挂载共享?
8 linux  freebsd  nfs  zfs 

1
您如何在AWS的Linux上创建大型的,可扩展的共享文件系统?
在AWS上提供作为单个文件系统公开的大型,可增长的共享存储的可接受/合理/最佳方式是什么? 我们目前大约每两周制作1TB EBS卷,并使用no_subtree_check和nohide导出NFS。在此设置中,客户端上的单个安装下会出现不同的导出。这种安排不能很好地扩展。 我们考虑过的选项: 具有ext4的LVM2。resize2fs太慢。 Linux上的Btrfs。显然还没有准备好黄金时间。 Linux上的ZFS。显然还没有准备好迎接黄金时段(尽管LLNL使用了它) Solaris上的ZFS。这个组合的未来(对我而言)不确定,并且新操作系统混合在一起 glusterfs。听到的大部分都是好故事,但有两个令人恐惧的故事(也许是古老的故事)。 理想的解决方案将提供共享,单个fs视图,轻松的可扩展性,快照和复制。 感谢您分享想法和经验。

2
zfs和未来的可扩展性
我想使用freebsd 9和zfs构建服务器。我周围有一些旧硬件(具有8 GB内存的Intel四核),并且我愿意购买两个或三个1 TB磁盘。我也有一个dlink RAID服务器,其中已经有两个1 TB磁盘,我可能会停止使用它们,因此一旦我将数据移到zfs服务器上,那两个硬盘就可以在zfs服务器中使用了(当前大约300 mb)在RAID 1中)移至新服务器。 这样一开始就给我2或3个磁盘,一旦我成功设置zfs服务器并复制了数据,便可以移动到4或5个磁盘。 我的问题是如何最好地设置zfs池,以便拥有最大的冗余和存储空间,并能够在将来可用时迁移到2个或3个或更大的驱动器。所以我不太在乎速度,我想我的以太网(即使速度为1gb / s)仍然是决定系统速度的决定因素...? 我目前的想法是购买2个新磁盘,并使用条带化模式进行设置。复制完dlink nas中的所有数据后,我将删除其中一个驱动器,通过使其成为新驱动器之一的镜像将其添加到池中。重建阵列后,我将另一个驱动器移至池中,以使其镜像第二个新驱动器……完成所有操作后,我应大致具有RAID 10的“条纹镜像”功能。 这可能吗,还是有更好的设置方法? 同样,我的首要任务是最大冗余,维护(将旧驱动器换成更新/更大的驱动器并增加我的总池空间),可用存储空间和速度;以该顺序。
8 freebsd  zfs 


4
FreeNAS是否已为企业做好准备?
我的思想有些分歧。 我正在为我的公司准备一个NAS,我们的VMware服务器需要它。 最初的想法是购买NAS(Netgear ReadyNAS) 但是后来我从社区(ServerFault)那里得到了一些建议,可以从服务器构建NAS并使用NextentaStor,Openfiler或FreeNAS之类的东西。 由于种种原因,我淘汰了Openfiler,现在我留在Nexentastor和FreeNAS之间。 我遇到的问题是,是否可以将FreeNAS用于生产环境。 FreeNAS是否足以成为VMware的iSCSI后端?我上次使用FreeNAS时是0.7版。 我们将使用Nexentastor社区而不是付费版本。 任何见识都会很棒。
8 zfs  freenas  nexenta 

3
PAM:在pam_mkhomedir之前执行命令?
当用户登录系统并且没有主目录时,我们想使用pam_mkhomedir创建用户的主目录。这是一种常见的做法。这是pam_mkhomedir的快速描述: 如果会话开始时不存在,则pam_mkhomedir PAM模块将创建用户主目录。这使用户无需使用分布式文件系统或预先创建大量目录即可出现在中央数据库(例如NIS,Kerberos或LDAP)中。骨架目录(通常为/ etc / skel /)用于复制默认文件,还为创建设置了umask。 但是,这是一个运行ZFS的FreeBSD 8.2系统。我们需要首先执行ZFS命令,因为我们希望每个用户一个ZFS文件系统。pam_mkhomedir可以做一个mkdir,但是我们需要做类似的事情zfs create /zpool/home/$USER。 有谁知道在用户的首次登录会话期间是否可以使用PAM执行命令?
8 freebsd  zfs  pam 

2
ZFS ARC和L2ARC缓存中有什么?
我在家中有一个简单的ZFS设置,有四个磁盘镜像,8GB内存和用于L2ARC的120GB Intel X25-M SSD。zpool add poolname cache cXtXdX然后,我生成了负载,并通过运行急切地跟踪了升温过程zpool iostat -v mypool。几个小时后,L2ARC已满,但是究竟缓存了什么呢? 我可以窥视一下ARC / L2ARC中的内容吗?我知道某些块会映射到多个文件系统(由于快照,克隆或dedup),但是我仍然想对统计数据进行抽样,如下所示: 缓存的块类型:元数据。iSCSI,数据。等等 年龄:每个区块进入L2ARC多久了 哪些文件:缓存了部分内容的目录 文件系统故障:每个文件系统缓存的GB 块的非易失性副本的位置(驱动器/ vdev) 我以为zdb和/或dtrace会成为您的工具,但真的不知道从哪里开始。

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.