Questions tagged «zfs»

ZFS是最初由Sun Microsystems开发并获得CDDL许可的现代文件系统和卷管理器。它是一种写时复制文件系统,支持大型存储阵列,防止损坏,快照,克隆,压缩,重复数据删除和NFSv4 ACL。ZFS的开源分支可以在http://open-zfs.org/上找到,这由FreeBSD和Mac OS X社区中的ZFSonlinux.org,illumos.org和ZFS开发人员支持。

4
是否可以在不需要完全重新安装的情况下分离并重新连接ZFS磁盘?
我有一个ZFS镜像池,共有四个驱动器。其中两个驱动器旨在用于轮流异地备份。我的期望是,在初始重新同步后,我可以detach再后来再attach对磁盘进行格式化,使其只进行增量重新同步-但是在测试中,无论所连接的磁盘是否已经包含几乎所有池,它似乎都可以执行完全重新同步内容。 使用offline/ online方法是否会给我仅更新磁盘而不是完全重建磁盘的预期结果?还是要按预期进行这项工作,我是否需要做一些完全不同的事情-例如将每个备份磁盘用作1磁盘池,并send在需要更新时将最新快照复制到该磁盘?
10 zfs  zpool  backup 

3
如何找到zfs克隆的父快照?
我克隆了具有多个快照的zfs文件系统。我也有文件系统的几个复制副本。 如何找到克隆附加到的文件系统/快照? (似乎应该在docs / googlable中出现,但我还没有找到任何东西)
10 filesystems  zfs 

1
标识同一文件的两个ZFS快照之间已更改的字节数
假设我有一个包含虚拟机磁盘映像的ZFS文件系统,例如 /tank/examplevm/examplevm-flat.vmdk 让我们进一步假设我为该ZFS文件系统制作了每日快照,例如 $ zfs snapshot tank@20120716 $ zfs snapshot tank@20120717 显然,在每个每日快照之间的时间段内,对我的examplevm-flat.vmdk进行了更改(在大多数情况下,映像的大小保持不变,但虚拟磁盘中的块被修改了)。 因此,ZFS diff命令现在将报告在两个快照之间修改的文件: $ zfs diff tank/@20120716 tank@20120717 M /tank/examplevm/examplevm-flat.vmdk 很高兴知道该文件已被修改,但我对在vmdk中已修改的字节/块的数量更加感兴趣。 因此,我对以下问题感兴趣: ZFS是否具有任何功能来报告两个快照之间特定文件中已更改块的数量? 还有其他工具可以对两个文件系统映像进行二进制比较,并报告已更改的块或字节数吗?我知道可以cmp –l file1 file2 | wc –l做到这一点,但是速度非常慢。
10 zfs  diff 

4
ZFS:从快照中删除文件?
假设我有一个包含100个快照的数据集,并且想要rm -rf所有快照中所有名为“ cache”的文件夹。 我实际上想释放空间,而不仅仅是将其隐藏在快照层中,因此进行克隆并从中删除然后再拍摄新快照似乎并不能满足我的要求。 有任何半自动的方式吗?在zfs列表周围有一些包装-t快照,zfs克隆,zfs升级,zfs快照吗? (来自/superuser/313197的交叉发布,因为我看到它包含更多的ZFS内容)
10 zfs 

3
ZFS-L2ARC缓存设备故障的影响(Nexenta)
我有一台作为NexentaStor存储单元运行的HP ProLiant DL380 G7服务器。该服务器具有36GB RAM,2个LSI 9211-8i SAS控制器(无SAS扩展器),2个SAS系统驱动器,12个SAS数据驱动器,热备用磁盘,Intel X25-M L2ARC高速缓存和DDRdrive PCI ZIL加速器。该系统将NFS提供给多个VMWare主机。我在阵列上还有大约90-100GB的重复数据删除数据。 我有两次事件突然导致性能下降,使VM guest虚拟机和Nexenta SSH / Web控制台无法访问,并且需要完全重启阵列以恢复功能。在这两种情况下,都是英特尔X-25M L2ARC SSD发生故障或“脱机”。NexentaStor未能向我发出有关缓存故障的警报,但是在(无响应)控制台屏幕上可以看到常规的ZFS FMA警报。 该zpool status输出显示: pool: vol1 state: ONLINE scan: scrub repaired 0 in 0h57m with 0 errors on Sat May 21 05:57:27 2011 config: NAME STATE READ WRITE CKSUM vol1 ONLINE 0 0 …
10 zfs  ssd  nexenta  zfs-l2arc 

5
通过不可靠的慢速WAN进行ZFS同步。ZFS复制还是rsync?
我的任务是通过WAN进行异地备份。两个存储盒都是运行ZFS的基于FreeBSD的NAS盒。 每周一次或两次,将15-60克摄影数据转储到办公室NAS。我的工作是弄清楚如何使用非常慢的DSL连接(〜700Kb / s上载)尽可能可靠地将这些数据移到异地。接收盒的形状要好得多,下降速率为30Mb / s,上升速率为5Mb / s。 我知道,将硬盘驱动器带到异地会更快地移动数据,但是在这种情况下,这不是一种选择。 我的选择似乎是: ZFS增量式通过SSH发送 同步 rsync是一个久负盛名的解决方案,并且具有在中断某些事件时恢复发送的最重要的功能。它具有迭代许多文件而又不了解dedup的缺点。 ZFS快照发送可能传输的数据更少(它比rsync更了解文件系统,可以进行重复数据删除,可以更有效地打包元数据更改),并且具有正确复制文件系统状态而不是简单复制的优点。单个文件(这会占用更多磁盘空间)。 我担心ZFS复制性能[1](尽管该文章已有一年历史了)。我还担心如果出现故障,是否能够重新启动传输-快照功能似乎不包含该功能。整个系统需要完全放手。 [1] http://wikitech-static.wikimedia.org/articles/z/f/s/Zfs_replication.html 使用任何一个选项,我都应该能够通过将流量通过指定的端口路由,然后在路由器上使用QOS来取消优先级。在每次传输期间,我需要避免对两个站点的用户造成重大负面影响,因为这可能需要几天的时间。 所以...这是我对这个问题的看法。我错过了任何好的选择吗?还有其他人设置类似的东西吗?

7
调整NFS客户端/服务器堆栈
我有一台CentOS 5 VMWare服务器通过NFS连接到OpenSolaris 2009.06计算机,该计算机保存磁盘映像。我的虚拟机似乎受到缓慢的IO的束缚,因此我想尽我所能来优化连接。 我不确定测量生产系统上吞吐量的最佳方法,但是使用dd bs=1024k count=400显示本地(OpenSolaris)写入速度约为1.6GB / s,而远程(CentOS)写入速度约为50MB / s的一些不科学的测试。我想这些比我实际获得的要低,因为当前有7个VM通过该连接运行。 当前,这两个机器是直接连接的gigE,并且两个NIC上都启用了巨型帧(MTU = 9000)。除此之外,没有进行任何优化。NFS安装/导出使用默认值。 我应该从哪里开始旋转旋钮以改善性能?
10 centos  nfs  tcpip  opensolaris  zfs 

2
ZFS池慢速顺序读取
关于这个问题,我有一个相关的问题,但是它太复杂,太大了,所以我决定将问题分为NFS和本地问题。我也曾尝试在zfs-discuss邮件列表中询问此问题,但收效甚微。 在同一服务器上的NFS / CIFS目录之间进行慢速复制 大纲:我的设置方式和期望 我有一个带有4个磁盘的ZFS池。2TB RED配置为2条带区镜像(RAID 10)。在Linux上,为zfsonlinux。没有缓存或日志设备。 跨镜像平衡数据(对于ZFS很重要) 每个磁盘可以并行方式以147MB /秒读取(原始w​​ / dd),从而提供588MB /秒的组合吞吐量。 我预计基于相似的4TB RED磁盘的基准,每个磁盘的顺序数据写入速度约为115MB /秒,读取速度为138MB /秒,并且每秒写入速度为50MB /秒。我期望读写速度不低于100MB /秒,因为这些天任何磁盘都可以做到。 我以为在负载读取或写入顺序数据的情况下,所有4个磁盘上的IO利用率都会达到100%。而且磁盘将以超过100MB /秒的速度输出,而利用率为100%。 我以为该池将使我在单个磁盘上获得大约2倍的写入,2倍的重写和4倍的读取性能- 我错了吗? NEW我以为在同一池上的ext4 zvol与ZFS的速度差不多 我实际上得到了什么 我发现该池的读取性能未达到我的预期 几天前池中的bonnie ++基准 版本1.97 ------顺序输出-------顺序输入--随机- 并发1-每Chr--块--重写--每Chr--块--寻求- 机器尺寸K /秒%CP K /秒%CP K /秒%CP K /秒%CP K /秒%CP /秒%CP 伊戈尔63G 99 99 232132 47 118787 …
10 linux  raid  performance  zfs  zpool 

2
为什么我的ZFS池没有在Linux上使用ZFS扩展?
我在Linux 2.6.32-431.11.2.el6.x86_64内核下有一个ZFS zpool,它具有单个vdev。vdev是一个SAN设备。我扩展了SAN的大小,尽管zpool autoexpand设置为on,即使在重新引导计算机,导出/导入池并使用之后zpool online -e,我也无法扩展该池。我确信vdev更大,因为fdisk它表明它已从215GiB增加到250 GiB。这是我所做的示例: [root@timestandstill ~]# zpool list NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT dfbackup 214G 207G 7.49G 96% 1.00x ONLINE - [root@timestandstill ~]# zpool import -d /dev/disk/by-id/ pool: dfbackup id: 12129781223864362535 state: ONLINE action: The pool can be imported using its name or numeric …
10 linux  zfs  zfsonlinux 

1
9x7驱动器raidz2(ZFS ZoL 0.8.1)上的慢速顺序速度
我正在运行一个大型ZFS池,该池针对256K +请求大小的序列化读写,通过Ubuntu(04.04)上的iSCSI(用于备份)进行。考虑到对高吞吐量和空间效率的需求,以及对随机小块性能的需求减少,我选择了条带化raidz2而不是条带化镜像。 但是,256K顺序读取性能远远低于我的预期(100-200MBps,峰值高达600MBps)。当zvol在iostat中的iowait达到约99%时,后备设备的iowait通常在10%到40%的iowait之间运行,这对我来说是瓶颈,在配置中我缺少这个东西,因为它不应该是背板或CPU此系统以及顺序的工作负载不应使ARC太费劲。 我已经使用了很多模块参数(下面的当前配置),阅读了数百篇文章,有关OpenZFS github的问题,等等。调整预取和聚合使我达到了这种性能水平-默认情况下,我的运行速度约为50MBps ZFS向磁盘发送TINY请求时(约16K),顺序读取。通过聚合和预取工作正常(我认为),磁盘读取会更高,在iostat中平均约为64K。 NIC是具有cxgbit卸载功能的LIO iscsi目标+ Windows Chelsio iscsi启动器在ZFS zvols之外可以很好地工作,通过直接映射的optane返回NIC上几乎全线速(读写3.5GBps)。 我期望太多了吗?我知道ZFS优先考虑安全性而不是性能,但是我希望7x9 raidz2比单个9驱动器mdadm raid6提供更好的顺序读取。 系统规格和日志/配置文件: Chassis: Supermicro 6047R-E1R72L HBAs: 3x 2308 IT mode (24x 6Gbps SAS channels to backplanes) CPU: 2x E5-2667v2 (8 cores @ 3.3Ghz base each) RAM: 128GB, 104GB dedicated to ARC HDDs: 65x HGST 10TB HC510 …

2
如何确定用户缺少接收ZFS数据集的权限?
我有一台FreeNAS(11.1-U1)和一台FreeBSD(11.1-RELEASE-p6)机器。在FreeNAS上,我想以zfs receive具有委派权限的非root用户身份递归快照。这似乎对大多数子数据集都适用。但是iocage的data数据集可以安装到监狱并从那里进行管理,但它们失败了: root@freebsd:~> zfs send -RI "dozer@2018-02-21" "dozer@2018-03-08" | ssh -T -i /root/backup_key backupuser@freenas zfs receive -dvuF neo/backups/freebsd receiving incremental stream of dozer@2018-03-03 into neo/backups/freebsd@2018-03-03 received 312B stream in 1 seconds (312B/sec) receiving incremental stream of dozer@2018-03-07 into neo/backups/freebsd@2018-03-07 received 312B stream in 1 seconds (312B/sec) receiving incremental stream of …

4
硬件RAID 6之上的ZFS条带。可能出什么问题?
我有36 * 4TB HDD SAN机架。RAID控制器不支持RAID60,并且一个RAID组中最多支持16个HDD。因此,我决定将2个RAID6组的16HDD或4个8个HDD组成。我想将所有存储作为一个分区。 因此,如果我在硬件RAID6之上使用zfs池,可能​​会出错吗?是的,我知道强烈建议您使用本机HDD或直通模式。但是我没有这个选择。 还是在这种情况下我应该远离ZFS和软件突袭?(我对压缩和快照最感兴趣)

1
OmniOS / ZFS / Windows 7:对于CIFS / SMB上的所有文件大小,应用程序中的“另存为”滞后5秒
情况: 在运行OmniOS r151018(95eaa7e)的单个文件服务器上,通过SMB向Windows和OS X guest虚拟机提供文件时,发生了以下奇怪的问题。 通过SMB共享上的“另存为...”对话框窗口保存某些文件(.docx,.xlsx,某些图像)会导致大约3到5秒的延迟,之后应用程序完全不响应。文件正常保存。 该问题确实发生在“一夜之间”,没有对服务器做任何事情,但是很难确定确切的日期,因为用户的抱怨只是在第一次出现之后的某个时间出现的。重新引导服务器后,镜像的根池的一个vdev不可用,但仔细检查未发现设备上的任何故障,并将其重新连接到池中。问题仍然存在。 一些观察: 它发生在所有Windows 7客户端上 适用于所有文件大小 无论权限如何,它都会在此计算机的所有共享上发生 这样做是为了通过另一台服务器通过iSCSI在主机上更快地导入存储 在GBit以太网上,正常复制速度为110 MB /秒 数据和根池似乎很好 在其他文件服务器上不会发生 当文件保存在本地,然后通过资源管理器复制时,不会发生这种情况 在OS X上不会发生(只能在OpenOffice上进行测试) dmesg可以显示NOTICE: bge0: interrupt: flags 0x0 - not updated?具有不同值的多个计数,但是以前也是如此,并且没有害处 进一步的想法/计划: 由于找不到明确的错误消息,因此可能需要进行一些反复试验以查找原因。我会考虑的一些事情(结果以斜体显示): 用Intel卡替换Broadcom网卡=>没有什么区别 用SATA SSD替换根池(当前SLC内存USB记忆棒可以使用3年以上)=>没有区别 检查之间的网络(硬件,通过直接连接到服务器) 使用WireShark捕获流量:如果您不知道确切要查找的内容,则很难 恢复到以前的OmniOS引导环境/版本以排除软件冲突=>没什么不同 回滚Windows / Office更新以排除错误 :从快照中删除文件名中带有(冒号)的文件,txgsync对ewwhite =>创建的reddit线程的建议没有什么影响 使用包含“:”字符的自动快照启用Windows“先前版本”功能时,我已经看到类似的内容。只是随风而行,但可能值得一看,因为Windows文件名中不允许使用“:”字符。 监测的文件访问:由shodanshok建议,我用DTrace和这个脚本监视文件访问。我在保存已打开的文件,删除不相关的输出和个人信息时使用了它,结果集中在三个文件周围: CPU ID FUNCTION:NAME 1 18753 fop_open:entry …

2
ZFS校验和错误,何时更换驱动器?
我是ZFS的新手,我有一个带有8个驱动器的简单镜像存储池设置。运行几周后,一个驱动器似乎产生很多错误,因此我更换了它。 再过几周,现在我看到池周围到处都是小错误(请参见zpool status下面的输出)。我应该为此担心吗?如何确定错误是否表明需要更换驱动器? # zpool status pool: storage state: ONLINE status: One or more devices has experienced an unrecoverable error. An attempt was made to correct the error. Applications are unaffected. action: Determine if the device needs to be replaced, and clear the errors using 'zpool clear' or replace the …

3
ZFS卷作为ISCSI目标
我正在研究ZFS,并将FreeNAS用于ZFS管理,并且有以下问题: 在ZFS卷上创建iSCSI目标时,ZFS的优点(如重复数据删除,自动错误修复等)仍然有效吗? 在FreeNAS中,这可能是原始映像文件,用作ZFS卷上的目标。由于它是基于块的(而不是基于文件的):ZFS的优点是否仍然适用? 编辑:预期用途将存储为VMware(ESXi)。
9 freebsd  zfs  freenas 

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.