Questions tagged «zfs»

ZFS是最初由Sun Microsystems开发并获得CDDL许可的现代文件系统和卷管理器。它是一种写时复制文件系统,支持大型存储阵列,防止损坏,快照,克隆,压缩,重复数据删除和NFSv4 ACL。ZFS的开源分支可以在http://open-zfs.org/上找到,这由FreeBSD和Mac OS X社区中的ZFSonlinux.org,illumos.org和ZFS开发人员支持。

1
如果我强制ZFS分离没有有效副本的热备用,会发生什么情况?
我有一个由6个RAIDZ组成的ZFS池。RAIDZ中的一个降级了,这是因为单个RAIDZ中的两个磁盘之间的松动距离足够近,以至于ZFS无法在第二个磁盘发生故障之前从第一个故障中恢复。这是重启后不久“ zpool status”的输出: pool: pod2 state: DEGRADED status: One or more devices has experienced an error resulting in data corruption. Applications may be affected. action: Restore the file in question if possible. Otherwise restore the entire pool from backup. see: http://www.sun.com/msg/ZFS-8000-8A scrub: resilver in progress for 0h6m, 0.05% done, 237h17m …
9 linux  zfs  zfs-fuse 

1
使用ZFS头节点作为数据库服务器?
我正在使用基于Zex支持的双头NAS进行高可用性群集共享存储,基于Nexenta的推荐体系结构,如下所示: 1个JBOD中的磁盘将存储单个4 TB Postgres数据库的数据库文件,另一个JBOD中的磁盘将存储20 TB的大型原始二进制平面文件(大型恒星对象碰撞模拟的集群结果)。换句话说,支持Postgres文件的JBOD将主要处理随机工作量,而支持模拟结果的JBOD将主要处理串行工作量。两个头节点均具有256 GB的内存和16个内核。集群有大约200个核心,每个核心维护一个Postgres会话,因此我希望有大约200个并发会话。 我想知道在我的设置中让ZFS头节点同时充当集群的Postgres数据库服务器镜像对是否明智?我唯一看到的缺点是: 扩展我的基础架构的灵活性较低。 冗余级别略低。 Postgres的内存和CPU资源有限。 但是,我看到的好处是ZFS对于自动故障转移还是很愚蠢的,而且我不必花费很多工作就可以使每个Postgres数据库服务器确定头节点是否发生故障,因为它会与头节点一起发生故障节点。

3
zfs重命名/将根文件系统移动到子目录
存在类似的问题,但是解决方案(使用mv)很糟糕,因为在这种情况下,它可以用作“复制,然后删除”,而不是纯“移动”。 因此,我创建了一个池: zpool create tank /dev/loop0 并直接从那里的另一个存储中重新同步了我的数据,因此我的数据现在位于/tank。 zfs list NAME USED AVAIL REFER MOUNTPOINT tank 591G 2.10T 591G /tank 现在,我意识到我需要将数据存储在子文件系统中,而不是/tank直接在文件系统中。 那么,如何移动或重命名现有的根文件系统,使其成为池中的子文件系统? 简单的重命名将不起作用: zfs rename tank tank/mydata cannot rename to 'tank/mydata': datasets must be within same pool (顺便说一句,如果事实上我只有一个池,为什么它抱怨数据集不在同一池中?) 我知道有一些解决方案涉及复制所有数据(mv或将整个数据集发送到另一台设备并返回),但是不应该有一种简单的优雅方法吗? 只是要注意,我在此阶段不关心快照(尚无要关心的快照)。

3
带有ZFS的备份存储服务器
我是一家小公司的所有人。我想设计一个新的基础结构,包括新服务器和具有公司范围备份策略的单独备份服务器。 公司中最重要的是SQL Server及其数据库。数据库有10个,但其中只有2个非常重要。前一个8GB,主要是文本数据和数字。第二个约300GB,每月增加16GB,其中包含PDF和GIF。 为了保存存储,当前备份策略包括每周一次完整备份和6个差异。我认为它每周约350GB,每月约1.4TB。 在阅读了有关静默数据损坏的文章之后,我决定尝试使用Nexenta社区版的ZFS。 我的问题:具有重复数据删除功能的ZFS在可靠性方面是否适合存储备份文件,还是我应该考虑进行一些磁带备份还是其他? 编辑:我知道现在我们无法预测性能,重复数据删除率等,但是我想知道这是否是个好主意。

2
自从升级到Solaris 11以来,尽管具有30GB RAM,但我的ARC大小始终以119MB为目标。什么?为什么?
在发布Solaris 11之前,我在Solaris 11 Express上运行了NAS / SAN盒。该包装盒是带有X2700的HP X1600。总共12个1TB 1TB 7200 SATA磁盘,12个300GB 10k SAS磁盘在单独的zpool中。总内存为30GB。提供的服务包括CIFS,NFS和iSCSI。 一切都很好,我有一个ZFS内存使用情况图,如下所示: 相当健康的Arc大小约为23GB-利用可用内存进行缓存。 但是,当它发布时,我随后升级到了Solaris 11。现在,我的图形如下所示: 的部分输出arc_summary.pl是: System Memory: Physical RAM: 30701 MB Free Memory : 26719 MB LotsFree: 479 MB ZFS Tunables (/etc/system): ARC Size: Current Size: 915 MB (arcsize) Target Size (Adaptive): 119 MB (c) Min Size (Hard …
9 zfs  solaris-11 

3
具有不同驱动器大小的ZFS池
我计划使用两个2 TB驱动器和两个1 TB驱动器设置一个FreeNAS ZFS池。我想以某种方式实现数据冗余。我读了这篇文章,似乎表明我的两个选择是使用RAIDZ的每2TB驱动器丢失1TB或使用以下命令(这使数据冗余所需的空间增加了一倍): zfs set copies=2 poolname 是否有更好的方法来处理此问题并实现更多功能,例如Drobo的Beyond RAID或Netgear的XRAID?或者,我可以将每个2TB驱动器划分为1TB分区,并将两个分区都放入池中吗?
9 zfs  freenas 

6
使用zfs压缩的文件大小
我通常使用来估计整个目录树的大小du -ks $DIRECTOY_TREE_ROOT,但是启用zfs压缩后不能使用此方法。 该total所显示ls -l是确定一个单一的目录,但是这是为了得到一个目录树相同的结果最简单的方法? 编辑: 操作系统是Solaris 10。 我正在寻找实际文件大小,而不是磁盘上使用的空间。

2
ZFS和缓存设备
我将向我的ZFS存储中添加SSD驱动器作为缓存。有人对此有经验吗?如果缓存设备死了,该数据将受到影响吗?
9 cache  ssd  zfs 

7
有人有使用Nexenta的经验吗?[关闭]
按照目前的情况,这个问题不适合我们的问答形式。我们希望答案会得到事实,参考或专业知识的支持,但是这个问题可能会引起辩论,争论,民意调查或扩展讨论。如果您认为此问题可以解决并且可以重新提出,请访问帮助中心以获取指导。 7年前关闭。 我正在评估Nexenta平台,希望有一天能替换我们的旧文件服务器。我主要将其用作Active Directory环境中的CIFS服务器。 任何人都有使用它的经验吗?好?坏? 您与哪个硬件供应商一起使用?为什么?您是构建自己的(Supermicro)还是进行预构建?
9 zfs  nexenta 

7
是否有针对ZFS的案子?
仍然存在反对在生产中使用ZFS的情况吗? 我运行Solaris服务器,并计划从早期发行版升级到Solaris 10 10/09。 当前,我们将SVM用于本地磁盘,将供应商的技术用于SAN卷管理。我们正在考虑将大部分(如果不是全部)存储迁移到ZFS。我们希望能够在快照上使用LiveUpgrade,轻松进行存储管理(尤其是增加LUN),快速重新同步等。 是否需要注意“陷阱”?我们有很多Oracle数据库。那是个问题吗?你们中的任何人在做我们想做的事情上是否有负面经历?
9 solaris  zfs 

6
关于FreeBSD上的ZFS作为NAS盒的建议?
已锁定。该问题及其答案被锁定,因为该问题是题外话,但具有历史意义。它目前不接受新的答案或互动。 请注意,本页上的答案来自2009年,不应作为福音。如果您有关于zfs的特定问题,请单击“ 询问问题”按钮并询问特定问题。 我当时正在考虑使用FreeBSD 7.2和ZFS文件系统构建家庭备份系统。有没有人对该文件系统有任何经验? 特别: 是否可以从ZFS引导?(我要吗?) 添加驱动器有多容易? 它如何处理不同大小的驱动器? 您是否可以即时添加新驱动器(或至少只需重启即可)? 现成的东西能更好地为我服务吗? 任何其他想法和建议都将受到欢迎。 编辑: 为了清楚起见,我已经阅读了ZFS上的FreeBSD页面。我正在寻找具有类似实际设置经验的人的建议。

6
iSCSI和NFS在1GB以太网上的“良好”速度是多少?
已锁定。该问题及其答案被锁定,因为该问题是题外话,但具有历史意义。它目前不接受新的答案或互动。 我有一个OpenSolaris框,共享两个ZFS文件系统。一种是与运行VMware服务器的CentOS盒的NFS连接(磁盘映像存储在ZFS中)。另一个是在ZFS上以NTFS格式与Windows 2008服务器建立iSCSI连接。两种连接都是通过gig-E直接连接(无开关)。 我正在运行munin来监视盒子,但是我不确定应该期望什么样的数字。有人可以给我一些基准数字以进行比较还是对从何处开始调整提出任何建议? 这是我所看到的NFS统计信息,一旦我在solaris盒上修复了munin后,我将发布iSCSI:P

1
ZFS删除具有相互依赖关系和克隆的快照
以下是我的ZFS卷和快照的列表,以及它们的来源和克隆。 我想删除所有快照,但保留所有文件系统。我怎样才能做到这一点? 我尝试zfs promote过尝试删除文件系统的许多不同组合的每个文件系统。这会在快照的“实时”位置移动;例如,zfs promote tank/containers/six将快照F从tank/containers/three@F移到tank/containers/six@F。文件系统中的实时数据未修改(这是我想要的!),但是我仍然无法删除快照(这不是我想要的)。 一个典型的zfs destroy尝试告诉我它有依赖的克隆,这(快照)一些我不希望破坏,但别人其中(文件系统)我并不想破坏。 例如。 # zfs destroy tank/containers/six@A cannot destroy 'tank/containers/six@A': snapshot has dependent clones use '-R' to destroy the following datasets: tank/containers/five tank/containers/two@B tank/containers/two 在上面的示例中,我不想销毁tank/containers/five或tank/containers/two,但是如果我分别是zfs promote5和2,则仍然无法销毁任何快照。有解决方案吗? # zfs list -t all -o name,origin,clones NAME ORIGIN CLONES tank - - tank/containers - - tank/containers/five tank/containers/two@B …
9 zfs 


2
存储服务器-将SAS HBA卡交换为其他型号
TL; DR Server的原始SAS HBA(PCIe卡)不支持透明直通,这是我所希望的,因为我希望OS管理磁盘(ZFS)。 在我公司,我们有一个带SRCSAS144E RAID控制器的Intel SSR212MC2服务器(规格表)。机器闲置着,我计划在部署它之前对其进行一些试验。 显然,SRCSAS144E控制器仅支持将RAID卷呈现给操作系统。创建十二个单卷RAID0组对我来说似乎非常困难,当我意识到无法将磁盘移动到另一台服务器时,就产生了怀疑(有关软件突袭,请参见hba的答案)。 因此,如果我对SAS的有限理解是正确的,那么我可以购买另一张卡(例如this),代替现有的卡,然后将SAS扩展器提供的电缆插入其中。最后,操作系统应该会看到每个单独的设备,对吗? Linux内核将需要驱动程序来与网卡对话,但是我认为这种通用设备已经获得主流支持。还有什么我需要注意的吗?

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.