Questions tagged «zfs»

一个高级文件系统,可以跨多个磁盘,可以修复数据损坏,重复数据删除,加密等问题。

4
如何建立一个NAS?
我有很多照片要组织,远离稀疏的DVD并转向NAS解决方案。理想情况下,这会让我有一定程度的冗余,更容易找到我正在寻找的东西。 话虽这么说,硬盘相对便宜。我的下一个问题是,我想在驱动器上运行ZFS,能够添加/删除驱动器以获得额外的冗余,或者可能更改驱动器的配置。有没有一个NAS盒可以让你运行你选择的操作系统(FreeNAS)所以我需要做的就是获得硬盘驱动器,NAS盒,并用FreeNAS修改固件/操作系统? 沃尔特
7 nas  solaris  zfs  freenas 

3
关于使用ZFS和FreeBSD的反馈
我需要创建仅用于备份文件的服务器。该服务器将首先具有2TB的RAID-5存储,但稍后可能需要添加其他存储。因此,我目前正在考虑将FreeBSD + ZFS用作操作系统和文件系统。 谁能指出他们在生产环境中使用ZFS并对其选择感到满意的方案?我已经读过ZFS应该与FreeBSD一起用于OpenSolaris,因为就版本更新和稳定性而言,OpenSolaris通常比ZFS领先。但是,我对将OpenSolaris用于此项目不感兴趣。 我正在考虑的另一种选择是坚持使用ext3并在需要时创建多个卷,因为我知道我将不需要单个连续的大于2TB的卷。 预先感谢您的反馈。

1
可以在同一物理设备上存在两个单独的zpool吗?
简:我可以在两个独立的zpool之间共享磁盘吗? Long:我想要一个raidz2阵列,但是我不能一次性承担这一切。我可能的解决方案是从两个驱动器开始。我只使用每个磁盘的一半容量创建一个镜像。当我能够负担得起更多驱动器时,我会使用新驱动器和初始磁盘上50%未使用的空间创建一个带有单个raidz2 vdev的新zpool。然后我计划将数据从一个zpool复制到另一个zpool,删除包含镜像的zpool并使用raidz2 vdev展开zpool。 这会有用吗? 链接和参考将不胜感激。
5 zfs 

1
我应该如何关注ZFS镜像中的校验和错误?
我有一个自建的FreeNAS系统,它在一个ZFS池中使用4个硬盘纯粹用于存储,在ZFS镜像中使用2个镜像16GB USB记忆棒用于启动。它很稳定,已经运行了大约8个月。但是,隔夜电子邮件通常都是这样的: Checking status of zfs pools: NAME SIZE ALLOC FREE EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT freenas-boot 14.5G 1.67G 12.8G - - 11% 1.00x ONLINE - volume1 7.25T 457G 6.80T - 2% 6% 1.00x ONLINE /mnt 游泳池:freenas-boot 州:在线 status:一个或多个设备遇到无法恢复的错误。一个 试图纠正错误。应用程序不受影响。 操作:确定是否需要更换设备,并清除错误 使用'zpool clear'或用'zpool replace'替换设备。 看到: http://illumos.org/msg/ZFS-8000-9P 扫描:在2016年10月23日03:51:22,在0h6m修复232K并修复0错误 配置: NAME …
3 zfs  freenas 

1
如何创建一个继承主机根文件系统的linux容器,可能还有zfs?
什么 希望标题中的问题是有道理的。我想创建一个低开销(因此没有虚拟机)的主机操作系统副本,它在Linux容器中运行。 我想以某种方式使用zfs创建主机rootfs的快照,然后以某种方式将其提供给lxc。这样,容器中的任何更改都通过ZFS的写时复制功能限制在容器中,并且对主机rootfs的任何未来更改都不会传播到容器。 我是否有任何潜在的问题需要考虑,例如递归目录会造成严重破坏或其他什么? 为什么 这样做的原因是我可以快速使用主机作为模板,并使用例如安装污染rootfs的新构建工具而不必担心影响主机,而不必浪费大量的驱动器空间复制主机根文件系统。另外,我花了相当多的时间以我喜欢的方式设置主机,并且不想再花几天时间创建一个过程的模板(尽管我应该这样做,把它全部写下来是一个好主意,自动化它甚至更好)。由于这将在一个linux容器中,我可以同时运行多个实例。

1
用于双重后端的最佳ZFS数据集配置
我目前正在使用FreeNAS系统来备份我的笔记本电脑和台式机。我正在使用deja-dup(这是一个包含duplicity的包装)来处理客户端。假设我在客户端上使用了现成的默认设置,我该如何设置ZFS数据集? 我的选择是: 压缩级别:[无,lz4,gzip [1-9],izle] 装载选项:[atime,noatime] 记录大小:[512b,1k,2k,4k..1024k] ZFS重复数据删除:[开,关]

1
查看数据集上的ZFS重复数据删除率
我有一个由多个数据集组成的容器,其中只有一个被配置为使用重复数据删除。 如何查看此数据集的比率?我得到了整个游泳池的1.00倍的比例,但我想这只是报告坦克中的比例,这没什么(我只有坦克中的数据集)。

2
使用不同大小的磁盘升级ZFS池大小
我目前有一个设置,我使用旧桌面作为媒体服务器,但我没有容错,并且那里的媒体数量太大,我无法合理地支持它。我不是非常担心在发生驱动器故障的情况下丢失它,因为它只是电影和电视节目之类的(其中很多我仍然有DVD,打包在某处),但我正在升级我的系统我想在这里添加一些容错。 目前,我有1TB,2TB和3TB驱动器,可能使用大约5.5TB,我想我将再购买两个4TB驱动器并设置一个4TB x 4TB x 3TB RAIDZ阵列。 我的问题是: 我的理解是,对于像这样的异构磁盘阵列,池大小将限制为最小磁盘的大小,这意味着我将看到一个3 x 3 x 3 TB RAIDZ,具有6TB可用空间和2TB非 - 容忍空间 - 这是真的吗?* 假设#1为真,当我最终需要更多空间时,如果我向阵列添加一个4TB或6TB驱动器,将池扩展为4 x 4 x 4 TB阵列是否是一件简单的事情,或者我是在升级阵列时需要找一个存放6TB数据的地方? * 2TB的非容错空间并不是什么大不了的事,因为我计划在2TB左右预留“需要适当备份的东西”(个人照片,电脑快照等),我会反映到剩下的2TB磁盘和第二个2TB外置硬盘,我将保留在其他地方。
2 hard-drive  raid  zfs 

1
使用ZFS发送将池复制到没有ECC内存的服务器时,我是否会遇到数据丢失?
我有一个带有ZFS raidz2阵列的OmniOS文件服务器,我希望通过千兆以太网备份到另一台机器。另一台机器是Linux(Ubuntu 12.04)系统,非ecc RAM连接到一堆USB 3.0外部硬盘驱动器。我想在备份机的外部硬盘驱动器上使用ZFS,并使用ZFS发送/接收来备份数据。数据完整性和防止静默文件损坏是首要任务。理想情况下,我想将外部硬盘驱动器从linux机器安装到OmniOS服务器,就好像它们是本地磁盘(即:块级访问实际硬盘驱动器),以便所有zfs校验和都在OmniOS上完成机器,因为它有8个CPU核心和ECC RAM,而Linux机器是一个“桌面”(HTPC)双核心与非ECC RAM。 可以使用iSCSI完成吗?这可以通过以太网使用ATA来完成吗?(外部硬盘在Linux中显示为SATA磁盘,即:/ dev / sdb,/ dev / sdc,/ dev / sdd等) 如果我在备份计算机上使用Linux上的ZFS,那么我使用与静默损坏相关的备份数据会带来多大的风险? 感谢任何和所有的输入。 背景资料: 我正在构建一个虚拟化的“一切”服务器,现在我正在努力想出一个更好的备份解决方案。服务器将运行OmniOS(opensolaris衍生产品)作为内置虚拟化SAN,它将把我的所有数据保存在RAIDz2(ZFS版本的RAID6,两个磁盘冗余)阵列上。服务器还将运行其他一些东西,如LAMP堆栈和MythTV Backend,用于从附近的有线电视盒中录制电视节目等。它主要是一个充满音乐,图片,电影和电视节目录制的媒体服务器。 我非常关心数据完整性。鉴于我拥有的数据量和操作量(网络流媒体代码转换,电影内部流式传输到许多本地媒体显示系统,不断增加数十亿字节的照片等),极有可能出现静默损坏。这就是我运行ZFS所有内容,ECC RAM等的原因。 我对所有关键任务(我的工作,我的记忆等)进行了异地(和BluRay)备份,但我需要为某些媒体实现现场备份(我没有足够的互联网连接带宽来推送每天80千兆字节的高清电视节目显示在远程服务器上。 我有一个HTPC运行Ubuntu Linux与MythTv前端和XBMC(我优柔寡断)距离主服务器机房大约600英尺,在另一层楼。它通过千兆以太网连接回服务器机房(它通过该层的网络交换机,因此600英尺的以太网电缆不是问题)。它有一组2 TB的外置硬盘驱动器(WD MyBook Essentials,如果你很好奇的话)通过隐藏在锁定墙壁单元中的USB 3.0连接。我想将所有内容备份到那些硬盘上。
2 linux  backup  zfs  iscsi  san 

0
为什么ZFS在2.4 gig之后减速制作大文件?
在Linux上使用Zfs,我正在制作一个大型tar文件,我正在观看它添加到文件中,并且它非常快,直到它达到2.4gig大小,然后它只是爬行了几个小时。 ext4上的同一文件没有问题。任何人都知道为什么会这样? zfs文件系统位于镜像的1tb vdev上。充足的空间。 zpool list z NAME SIZE ALLOC FREE EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT z 928G 463G 465G - 28% 49% 1.00x ONLINE - 编辑:添加get all和iostat的结果... root@io:~# zfs get all z NAME PROPERTY VALUE SOURCE z type filesystem - z creation Sat Jul 25 8:29 2015 - …

1
如何使用不同扇区大小的磁盘创建ZFS镜像?
尝试修复ZFS池中的镜像: louis@watson:~$ sudo zpool status pool: watson state: ONLINE scan: resilvered 1.55T in 7h22m with 0 errors on Fri Oct 6 03:19:16 2017 config: NAME STATE READ WRITE CKSUM watson ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 wwn-0x50014ee0ad3655a3 ONLINE 0 0 0 ata-Hitachi_HUA723020ALA640_MK0271YGJA5BSA ONLINE 0 0 0 wwn-0x50014ee058480994 …

3
哪种类似于ZFS的文件系统可以根据文件访问模式优化卷选择?
是否有类似RAID / ZFS的冗余文件系统,可以根据文件的访问模式优化文件的放置?我的目标是建立一个桌面系统,该系统将根据访问文件的频率和频率自动在硬盘,固态驱动器和RAM磁盘之间移动文件,以通过机会选择卷来控制磨损。例如,经常读取(并已打开以进行只读访问)的文件将放置在SSD上;经常读取但已打开以进行读写访问的文件将放置在RAM磁盘上;很少访问的文件将移至HD。 我正在想象一个可以自动识别访问模式并优化物理卷放置的智能虚拟文件系统。但是,我偷偷摸摸的感觉到可以通过在硬盘上创建主文件系统,在SSD上创建交换分区并为文件系统缓存保留大量RAM来实现类似的效果。 上述(简单)解决方案的缺点是它对底层硬件的弱点不敏感。例如,写操作会导致SSD更快地发生故障-HD更容易受到影响。但是,RAM几乎可以无限期地写入而不会失败。文件系统应利用这些属性来最大化设备的寿命。

0
Root在ZFS上的实用性
我准备在台式机上安装一个新的操作系统。它的基本规格是带有16GB非ECC RAM的i7 3770S,这是该主板支持的最大值。我现在实际上有XenServer,但是随着它们从最新的免费版中删除功能,我决定迁移到KVM,这似乎更好地支持通过消费者GPU(特别是nVidia)的解决方法,尽管我可以确认我的Radeon RX580就像我的Radeon 7970一样。这款主板是Gigabyte GA-H77N-WIFI的价值所在。我记得我找不到使用VT-d支持PCI passthrough的信息,或者它是否支持任意mini-PCIe卡,但对于那些正在搜索的人我可以确认两者在我的电路板上工作正常(购买于2012年12月14日) )。 我相信我理解非ECC RAM的风险,而且这台机器本身并不是真正的服务器,更多的是我将运行虚拟机的个人工作站。我的理解是,非ECC ZFS实际上并不比任何其他文件系统更具风险,ZFS校验和应该仍然是有益的。 我打算使用Alpine Linux作为我的主机操作系统,并从那里虚拟化大部分内容。其原因是KVM,它似乎是最成熟,最活跃,最广泛使用的免费虚拟化主机。我可能错了,找到信息并不容易,但FreeBSD上的Bhyve似乎并不像KVM那样成熟。我也非常喜欢英特尔GVT-g项目正在尝试开发的东西,它似乎也最好地支持KVM。 Alpine Linux支持ZFS上的root。我在FreeBSD(NAS4Free)上使用ZFS并且非常喜欢它。但是,在该设置上,root实际上是在USB驱动器上并在启动时加载到RAM中。 我真的想知道root在ZFS上的实用性。特别是在Linux上,可以说它不是“一等公民”。寻找关于实用性的担忧谷歌,我所能找到的只是东道主的指南。 现在我倾向于类似于NAS4Free嵌入式选项的设置,这将是在Alpine上设置一个非常精简的KVM主机并在启动时将其加载到RAM磁盘。然后我可能会在Linux上使用ZFS或者可能是通过SATA卡的FreeBSD VM建立一个数据存储。最有可能是前者,因为我无法在这种情况下安装另一张PCI卡,即使我已经测试了我的迷你PCIe SATA控制器,但是当我几个月前对它进行简单测试时它似乎没有问题。我想我真的不相信它的ASMedia 106x芯片组,特别是因为它在POST屏幕上说版本为0.61。如果用于root,配置将是镜像vdev中的2x128GB SSD。 我还阅读了一些关于内存不足导致ZFS不稳定导致崩溃的恐怖故事。但是,我认为互联网上有大量关于ZFS的FUD,可能源于Sun关于ZFS的文档针对企业用例。在RAIDZ设置中,它似乎也更为重要,特别是在高容量时。我也不相信我遇到了一个关于它发生在某人身上的第一手资料,只是“我认识一个知道男人的人”。 我想主要的问题是: Root对ZFS有什么好处?特别是如果你是一个没有把数据和root放在同一个分区上的人呢? 我喜欢ZFS使用任何不用于加速I / O的RAM的想法,但16GB已经相当紧张地运行一两个VM。 ZFS是否比使用Linux自己的文件系统缓存更好地利用可用内存? 我想综合我的想法来写出这一切让我更倾向于将精简根加载到RAM磁盘中。这完全是为了学习,就像我说的那样,对ZFS似乎存在很多矛盾的看法。老实说,我不确定我在ZFS上看到root的实际用途吗?特别是在Linux上。这只是“因为我可以做事”吗?当然,这没有什么不妥,这对突破是非常有益的,而不是我的工作站。

1
NFS存储VMware磁盘映像的最佳文件系统选择
目前,我们使用iSCSI SAN作为多个VMware ESXi服务器的存储。我正在研究在Linux服务器上使用NFS目标来获取其他虚拟机。如果它能提供显着的优势,我也愿意使用替代操作系统(如OpenSolaris)。 什么基于Linux的文件系统支持非常大的连续文件(如VMware的磁盘映像)?或者,人们如何在这种工作负载上在OpenSolaris上找到ZFS?
1 linux  nfs  zfs  opensolaris 

2
您可以将Ubuntu Server的安装从一个卷迁移到另一个卷吗?
显然,这个问题可能是主观的(虽然我不知道如何)。 从本质上讲,这就是我的想法: 由于我正在寻找的一些功能,我将构建一个NAS并考虑使用Ubuntu作为操作系统。现在,我计划使用ZFS管理NAS中的实际磁盘。我并不担心,因为我知道Ubuntu支持ZFS卷。 但是,我将一点一点地购买这些组件,所以我想的是我将安装我希望在备用的1TB驱动器上使用的环境,然后将该驱动器克隆到我的新阵列一旦我'我设置了我的zpool。 我的问题很简单:我正在考虑的是什么?或者我的计划中存在一些根本性缺陷?
1 ubuntu  nas  migration  zfs 

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.