Questions tagged «zfs»

ZFS是最初由Sun Microsystems开发并获得CDDL许可的现代文件系统和卷管理器。它是一种写时复制文件系统,支持大型存储阵列,防止损坏,快照,克隆,压缩,重复数据删除和NFSv4 ACL。ZFS的开源分支可以在http://open-zfs.org/上找到,这由FreeBSD和Mac OS X社区中的ZFSonlinux.org,illumos.org和ZFS开发人员支持。

1
ZFS池或LVM卷组对于利用许多分区是否更可靠?
在决定在配置新文件服务器时使用LVM卷组还是ZFS池时,需要考虑什么?多功能文件服务器领域是否有“更好”的选择?与之前的问题不同,我不想分层技术。 场景: RHEL / CentOS 6 x64服​​务器 许多可用的相同DAS和SAN LUN 选择: 我个人对LVM非常熟悉,因此,如果它是更好的选择,请放心使用。但是,ZFS看起来很有前途,学习新技术总是好的。 鉴于我们希望能够将相当大的存储(多个TB)共享给不同的部门,并且他们需要能够通过CIFS和NFS对其进行访问,如果我们将ZFS或LVM用于基础池管理器? 我知道可以使用类似的产品FreeNAS,但是由于多种原因,我需要能够推广到“典型”的Linux服务器上。
11 linux  lvm  partition  zfs 

2
消费级硬盘适合zfs吗?
我最近刚购买了新服务器HP DL380 G6。我用LSI 9211-8i替换了库存的智能阵列p410控制器。 我的计划是使用ZFS作为XEN的基础存储,该存储将在同一裸机上运行。 有人告诉我可以将SATA磁盘与智能阵列控制器一起使用,但是由于消费者驱动器缺少TLER,CCTL和ERC,因此不建议这样做。是这样吗 我想知道是否在JBOD(RAID直通模式)中使用LSI控制器是否真的像在智能阵列控制器中那样影响磁盘使用? 我知道,尝试使用没有写缓存支持的RAID系统进行虚拟化对性能不利。但是我在考虑为ZFS添加SSD。那会有所不同吗? 我的理由是我非常着迷于使用ZFS进行重复数据删除和压缩。我认为智能阵列控制器无法实现任何这些功能。

4
在ZFS主机上运行VM会对性能产生什么影响?
我正在考虑的ext3迁移到ZFS存储数据我的Debian Linux主机上,使用Linux上的ZFS。我真正想要的ZFS杀手级功能是其数据完整性保证。我也希望能够随存储需求的增长而微不足道地增加存储容量。 但是,我还在同一主机上运行了几台VM。(尽管通常情况下,在我的情况下,主机一次只能运行一个虚拟机。) 考虑到ZFS的数据校验和和写时复制行为,以及VM磁盘映像是相对较大的文件(我的主VM的磁盘映像文件当前位于31 GB)这一事实,这样的VM guest虚拟机内部的性能含义是什么?迁移?我应该采取什么措施来减少可能的负面性能影响? 如果有必要,我可以在VM磁盘映像上保留较少的数据完整性保证(我在任何VM内都没有做任何真正重要的事情),并且可以轻松地将它们与文件系统的其余部分分开,但是如果我不这样做,那就很好了。不必(甚至选择性地)关闭大多数使我想要迁移到其他文件系统的功能。 硬件对于工作站级系统而言非常强大,但是对于高端服务器(32 GB RAM,很少使用> 10 GB,6核3.3 GHz CPU,目前可用2.6 TB)而言,它的优势不大。磁盘空间,df总共约有1.1 TB可用空间;迁移到ZFS可能会增加一些可用空间),而且我不打算运行重复数据删除(因为在我的情况下启用dedup不会增加太多)。该计划是从JBOD配置开始的(显然备份良好),但是如果条件允许,我最终可能会转向双向镜像设置。

4
我可以相信ZFS在Linux和FreeBSD之间是一致的吗?
我打算不久后建立一个FreeNAS盒,但是如果Linux上的ZFS最终证明是可靠的,我可能想换一个,以便拥有一个更加熟悉的OS。 所以我想知道我是否可以相信ZFS的不同实现是兼容的。换句话说,如果我只是将引导磁盘从FreeNAS换出到Linux或OpenIndiana,我可以相信我的数据不会发生任何问题吗? 这似乎是一个愚蠢的问题-显然应该兼容-但我猜测在驱动器在计算机之间移动的情况下ZFS不常用,因此我希望有人可以提供比只是“ 应该 ”。
11 linux  freebsd  zfs  freenas 

3
大型RAID-Z阵列与大型RAID-5阵列一样坏吗?
很长时间以来,我已经听说过一个大型(> 5TB?)RAID-5阵列的想法有多糟糕,仅仅是因为另一个驱动器发生故障的风险很高。 RAID-Z1是否可以针对任何大小的阵列进行补救(如果您绝对需要一个数字,请考虑使用4x2TB或5x2TB)?也许是一种更安全的方式来复制并非在所有驱动器上都那么密集的数据?
11 raid  zfs 

2
Illumos上的KVM(OpenIndiana与SmartOS)
我正在考虑将多个来宾虚拟化到运行KVM到Illumos的最新端口的单个服务器上。听起来我的两个主要选择是OpenIndiana和SmartOS。我最终将使用满足以下要求的发行版: 需要能够通过CLI进行管理和自定义(例如,更改ZFS文件系统/ zvol选项,附加外部驱动器并向其复制数据,或使用zfs发送/接收将数据自动复制到异地服务器)。 需要实现自动ZFS快照(例如,使用zfs-auto-snapshot)。 如果服务器的运行状况降低,则需要能够设置自动电子邮件通知。本质上,设置定期的ZFS清理,监视zpool,故障管理器和/或SMART问题,以及在检测到问题时发送电子邮件等。只要操作系统允许我手动设置此设置就可以。 应该以良好的稳定性和合理的性能处理Debian,Ubuntu和Windows 2008 Server R2来宾。这些来宾将用于生产。 应该有一个合理的期望,即将继续发布将来的版本-我不想被死胡同的产品所困扰。 如果它易于设置并且具有某种GUI,那就太好了,但这是可选的。 根据这些要求,您会推荐哪种发行方式? 您可以假设在即将发布的OpenIndiana稳定版本发布之前不会部署此环境。另外,您可以假定服务器将使用Sandy Bridge Xeon E3-1xxx CPU,因此应注意与KVM的兼容性。 另外,在这两个发行版中的KVM端口到Illumos的鲁棒性/稳定性如何?我现在是否应该甚至将KVM / Illumos用于生产环境?

2
ZFS-销毁重复数据删除的zvol或数据集会使服务器停顿。如何恢复?
我在带有12个中线(7200 RPM)SAS驱动器的HP ProLiant DL180 G6上运行的辅助存储服务器上使用Nexentastor。系统具有E5620 CPU和8GB RAM。没有ZIL或L2ARC设备。 上周,我创建了一个750GB的稀疏zvol,它具有dedup和压缩功能,可以通过iSCSI与VMWare ESX主机共享。然后,我创建了Windows 2008文件服务器映像,并将约300GB的用户数据复制到VM。对系统满意后,我将虚拟机移至同一池中的NFS存储。 在NFS数据存储上启动并运行我的VM之后,我决定删除原始的750GB zvol。这样做使系统停滞了。对Nexenta Web界面的访问和NMC暂停。我最终能够得到一个原始的shell。大多数OS操作都很好,但是系统挂在了该zfs destroy -r vol1/filesystem命令上。丑陋。我找到了以下两个OpenSolaris bugzilla条目,并且现在知道该计算机将在未知的时间段内变砖。已经14个小时了,所以我需要一个计划才能重新获得对服务器的访问权限。 http://bugs.opensolaris.org/bugdatabase/view_bug.do?bug_id=6924390 和 http://bugs.opensolaris.org/bugdatabase/view_bug.do;jsessionid=593704962bcbe0743d82aa339988?bug_id=6924824 将来,我可能会采用buzilla解决方法之一提供的建议: Workaround Do not use dedupe, and do not attempt to destroy zvols that had dedupe enabled. 更新:我不得不强制关闭系统电源。重新启动后,系统将停在Importing zfs filesystems。现在已经有2个小时了。

5
NFS存储VMware磁盘映像的最佳文件系统选择
当前,我们将iSCSI SAN用作多个VMware ESXi服务器的存储。我正在研究在Linux服务器上将NFS目标用于其他虚拟机的情况。如果其他操作系统(例如OpenSolaris)具有明显的优势,那么我也持开放态度。 哪种基于Linux的文件系统支持非常大的连续文件(如VMware的磁盘映像)?或者,人们如何在此类工作负载的OpenSolaris上找到ZFS? (此问题最初是在SuperUser上提出的;如果您知道如何,请随时在此处迁移答案)。

5
EC2上的读取访问速度更快;本地驱动器还是EBS?
EC2实例上的读取访问速度更快;“本地”驱动器还是附加的EBS卷? 我有一些数据需要保留,因此已将其放在EBS卷上。我正在使用OpenSolaris,因此该卷已作为ZFS池附加。但是,我有大量未使用的EC2磁盘空间,因此我正在考虑将其重新用作ZFS缓存卷,但是如果磁盘访问的速度慢于此,我就不想这样做。 EBS的数量,因为它可能会产生不利影响。

8
无法销毁ZFS快照:数据集已存在
我有一台运行Solaris 10 8/07的服务器(T5220,尽管我怀疑这很重要),并且内部磁盘上有一个ZFS池“ mysql”。在其中,我有一个文件系统“ mysql / data / 4.1.12”,我使用cron的脚本每小时对其进行快照。 我有一个快照,作为这些小时快照之一创建,不会被破坏。我已不按顺序将其重命名为“ mysql/data/4.1.12@wibble”,这样我的脚本就不会尝试并无法破坏它,但是它最初是在序列中,尽管我怀疑这很重要。重命名成功。快照可以成功导航并通过.zfs / snapshots目录读取。它没有基于它的克隆。 试图销毁它可以做到这一点: (265) root@web-mysql4:/# zfs destroy mysql/data/4.1.12@wibble cannot destroy 'mysql/data/4.1.12@wibble': dataset already exists (266) root@web-mysql4:/# 这显然是荒谬的:当然它已经存在,这就是重点! 有人看过这样的东西吗?网络搜索显示没有明显相似之处。 如果需要,我可以提供已安装的补丁程序。
11 solaris  zfs 

2
如何在OpenSolaris上将ZFS RAID-Z阵列升级到更大的磁盘?
我正计划在家庭服务器上安装OpenSolaris(现在它具有Linux),并且我想知道如何准备将来将服务器升级为具有更大的硬盘。现在该服务器具有4个400GB SATA驱动器,我将在其上安装带有ZFS RAID-Z的OpenSolaris。今年或明年下半年的一段时间,我将把驱动器升级到4个1TB SATA驱动器。 如何使用ZFS升级和增加分区大小?这是一个简单而轻松的操作(例如,一次更换一个驱动器,ZFS会自动调整大小以使用整个空间),还是需要一些特殊的步骤?是否可以在不关闭系统的情况下完成?

3
ZFS导入无法找到任何池
我有一个ZFS池-包含2个vdev的镜像-在FreeBSD服务器上运行。现在,我只有镜像中的一个磁盘,而我正试图从镜像中恢复文件。 ZFS数据位于磁盘上的GPT分区中。 当我尝试导入池时,根本没有迹象表明它存在。我尝试了多种方法,但是没有任何反应。 我已经zdb -lu在分区上运行了,而且看起来标签还不错。 # zpool import # zpool import -D # zpool status no pools available # zpool import -f ztmp cannot import 'ztmp': no such pool available # zpool import 16827460747202824739 cannot import '16827460747202824739': no such pool available 分区信息: # gpart list da0 Geom name: da0 modified: …

4
ZFS清理完成后如何运行命令?
我想使用cron安排对ZFS池进行定期清理,并在清理完成后的相当短的时间内将状态报告通过电子邮件发送给我自己。这样做的目的是捕获任何问题,而无需手动查找它们(按而不是拉)。 第一部分很简单:只需设置一个cron作业即可zpool scrub $POOL在我的特定情况下以合理的时间间隔以root 身份运行。 第二部分,我不太确定该怎么做。zpool scrub立即返回,然后由系统在后台运行清理(如果清理是由管理员从终端启动的,这当然是理想的行为)。zpool status给我一个状态报告并退出(在运行Scrub时退出代码为0;它尚未完成,因此我不知道退出状态一旦完成是否会更改,但我对此表示怀疑)。zpool scrub记录的唯一参数是-s“ stop scrubbing”。 主要问题是检测从清洗到完成清洗的状态变化。鉴于此,其余的应该归位。 理想情况下,我想告诉zpool scrub您在擦洗完成之前不要返回,但我看不出有任何办法可以做到这一点。(简单地进行cron几乎太容易了zpool scrub --wait-until-done $POOL; zpool status $POOL。) 如果失败,我想询问系统当前是否正在进行清理,最好采用不会因升级或配置更改而造成太大风险的方式,以便我可以对先前运行的设备进行操作清理已完成(通过在清理状态从清理变为未清理时执行zpool状态)。 这种特殊的设置是针对工作站系统的,因此,尽管诸如Nagios之类的监视工具可能具有可解决该问题的加载项,但仅为完成一项任务而安装这样的工具就显得有些过头了。有人可以建议采用较低技术含量的解决方案吗?
11 linux  monitoring  zfs 

6
Windows上的ZFS替代方案
从概念上讲,我并不孤单,我喜欢ZFS的概念。您可以创建一个大磁盘,所有内容都存储在多个驱动器上,并且可以随时增加和缩小池和驱动器。另外,磁盘不必相同,等等。 我最讨厌的 ZFS是,据我所知,它是在Oracle(以前称为Sun)硬件上运行的Solaris上唯一真正稳定的形式。当然,存在OpenSolaris,并且FreeBSD具有ZFS支持,但是在非Oracle硬件上的FreeBSD / OpenSolairs / Solaris上,可靠性通常被认为很差。 我们运行(目前仅)Window Server 2008 R2服务器。此操作系统的“次佳” DAS存储选项是什么?我找不到适用于Windows的ZFS实现,因此就可以了。那里有无数的RAID卡:有人可以推荐接近ZFS灵活性的设置吗?您可以仅将磁盘添加到池中并添加更多存储空间而不必关闭服务器进行重建的设置吗? 总结:如果您喜欢ZFS但想运行Windows Server 2008 R2,那么最好/最酷的选择是什么? PS:这是用于生产系统的,每个系统的预算约为1万。

1
为什么`zfs list`和`zpool list`报告我的raidz2池大小非常不同?
我有一个带有8个zpool的ZFS服务器。每个池是10 + 2 RAIDZ配置中的12个6TB磁盘。因此,每个池的原始存储空间为12 * 6 = 72 TB,可用空间为10 * 6 = 60 TB。但是,当我使用zfs listvs.进行查询时,看到了不同的结果zpool list,如下所示: # zfs list NAME USED AVAIL REFER MOUNTPOINT intp1 631K 48.0T 219K /intp1 intp2 631K 48.0T 219K /intp2 intp3 631K 48.0T 219K /intp3 jbodp4 631K 48.0T 219K /jbodp4 # zpool list NAME SIZE ALLOC …
11 zfs  zfsonlinux 

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.