Questions tagged «raid»

独立/廉价磁盘冗余阵列;一种利用多个磁盘来提高可靠性,性能和/或冗余的技术。可以用软件或硬件控制器来实现。


0
使用partclone克隆btrfs RAID对会产生大量可恢复的错误
我的家庭服务器(Debian Jessie)有一对用于批量存储的1TB磁盘,在原始设备(无分区)上配置为RAID1镜像卷。 当我将这些磁盘换成两个新的3TB驱动器时,我很难找到关于如何移动数据的任何好的指导/示例。 最后,我选择的程序是将机器引导到GParted实时环境中,并使用partclone.btrfs将每个源磁盘复制到其替换中。这很简单但有风险,因为克隆会复制卷/子卷UUID,因此重新启动计算机并将所有磁盘连接起来是不安全的,因为重复的ID会混淆btrfs。 断开旧磁盘后,我重新启动,然后机器启动并重新安装原始UUID上的新磁盘,表明克隆成功。但是当我运行btrfs scrub时,它会产生数千个可恢复的错误。看起来每个块校验和可能有一个错误。 擦洗完成后,卷看起来运行正常,第二次擦洗通道显示没有错误。 我在克隆单个驱动器时遇到同样问题的人在此网站上发现了一篇帖子,因此它似乎并不特定于RAID卷。 有没有人知道在物理设备之间移动数据时这是预期的行为(校验和失效)还是partclone不像它声称的“btrfs意识”?
1 debian  raid  clone  btrfs 

2
在开发/测试机器上使用Ubuntu 64bit是个好主意吗?
我是一家大型公司的Web应用程序开发人员,我开发了一个当前在Tomcat / Java + MySQL上运行的应用程序。 我终于开始使用个人测试和开发机器了。我将它重写为PHP。是否值得使用Ubuntu 64bit?因为我有一个想法,因为它只是一个开发机器,并且所有的代码都被用于单独的机器,我想为所有4个驱动器使用RAID 0。我需要快速访问速度,因为应用程序使用相当大的SQL选择而不是大量数据。 或者它只是不值得,我应该只是将数据库移动到RamDisk而不打扰RAID 0? 工具也没问题,因为我将使用eclipse进行开发。 Machine specs: 2x Quad-core Intel Xeon e5620 (yay for 8 physical and 16 logical cores :) 10GB ddr3 ram 4x 160 SAS disks

1
机架式硬盘存储[关闭]
研究一些小型服务器的存储解决方案。我有一台运行OS X服务器的Mac mini,为我的所有机器提供开放目录帐户(98%OS X保存两台Windows机器)。 我有5 x 2TB HD,并且需要一个机架式机箱,我可以将硬盘驱动器进入,将它们设置为RAID(软件通过OS X或硬件 - 不关心)并将其连接到服务器(闪电, USB等)。从那里显然安装到服务器并为用户提供空间。问题是,当搜索这些盒子时,它们似乎都在1500英镑左右,这对于机架式可移动驱动器来说是相当多的花费! 有关如何进行的任何帮助或指导?在有人提到它之前 - 我不想使用FreeNAS,尝试过它并且它不能用于我的设置。

2
你可以一起使用LVM和RAID吗?
我听说LVM通过将硬盘驱动器融合在一起可以拥有非常大的分区。我听说使用RAID可以备份数据。 我可以,我将如何做到这一点:使用4个相同的硬盘,我想把两个放在LVM中,所以我可以有300 GB。那GB,我把它与其他2个硬盘一起放在RAID1中?
1 raid  lvm 

0
MDADM重塑2个磁盘RAID 5至4个磁盘RAID6
我正在进行某种非标准的mdadm重塑。我有一个2磁盘raid5(干净状态),我想将其重塑为4磁盘raid6。之所以将其创建为2磁盘raid5而不是2磁盘raid1,是因为我读过某个地方,将来将来更容易重塑形状。似乎并非如此: ~# mdadm --grow /dev/md3 --level 6 --raid-devices 4 --backup /root/md3reshapebackup mdadm: /dev/md3: could not set level to raid6 然后,我尝试使用3磁盘raid6作为中间步骤,但是效果不佳: root@bigbrain:~# mdadm --grow /dev/md3 --raid-devices=3 --level=6 --layout=preserve --backup /root/md3reshapebackup mdadm: /dev/md3: could not set level to raid6 该选项layout=preserve是为了使我和磁盘不必再进行两次翻录。 现在我首先成长为3磁盘raid5,并希望从那里可以进入4磁盘raid6: root@bigbrain:~# mdadm --grow /dev/md3 --raid-devices=3 --backup /root/md3reshapebackup mdadm: Need to backup …
1 linux  raid  mdadm 

2
一个Raid 0两个SSD怎样有效地备份到HDD
因此,无论在这里还是在其他地方,我都读过很多类似的问题,但没有一个问题能完全回答我的情况。 我有2个500GB SSD和1个1TB HDD。我想做的就是将RAID 0的SSD放入1TB的RAID阵列中。当然,这是易变的,并且当(如果不是)其中一个SSD最终销毁时,我希望能够断开阵列,更换快照的SSD,并创建一个新阵列,从该阵列中还原在1 TB HDD上复制。 现在我想到了RAID 01的情况,SSD上为0,0阵列和HDD之间为1,但是从逻辑上讲,这会使SSD阵列的速度和HDD一样慢,对吗?我显然不想要那个……所以我对一个好的解决方案感到困惑。
1 hard-drive  ssd  raid 


0
为什么RAID控制器不能模仿URE上的驱动器控制器动作?
有一个事实:URE将RAID阵列的整个成员视为损坏,但是URE在阵列外部不将整个驱动器视为损坏。 造成这种情况的技术差异是什么?它们在操作系统级别的显示方式相似,因此必须低于操作系统和格式。 据我了解,当RAID 5的单个成员发生故障时,RAID控制器开始通过将其他值与奇偶校验值进行比较以在新磁盘上写入正确的值来重建被替换的磁盘。当URE发生时,“它”通过“读取错误”感测到“损坏的数据”,“它”无法纠正“读取错误”,并且它停止重建并将第二个成员标记为错误。如果您具有单个冗余,则将使该阵列不可用。 为什么在遇到URE时ENTIRE数组不可用?为什么不只是那条信息呢? 似乎可以很容易地指出阵列中的位置,检查文件表,并列出损坏的文件,以便可以从备份将损坏的文件重新添加到阵列中。 例如,在单个磁盘中,驱动器控制器将扇区标记为坏并继续前进;驱动器控制器不会将整个驱动器和其中的分区标记为“坏”。为什么RAID控制器不能模仿它并得到相同或相似的结果? 另外,可能与背景相关的第二个问题是URE是“硬错误”,其中从同一扇区的每次读取均失败(与拼版相关),或者一次发生的“软读取”错误(与数据传输相关),但是拼盘还不错吗?如果是后者,那就引出了一个问题,为什么不只是再次尝试读取?还是前者? 为什么RAID控制器不能模仿URE上的驱动器控制器动作? TL;博士 这个问题实际上是一个相同的问题,但是咆哮者似乎把整个话题的答案和语气横摆了。“ RAID的目标是在磁盘死后使文件系统保持可用。而不是替换备份以确保重建成功。” 和 “在读取要从其构建的源时发生不可恢复的读取错误,因此无法从该损坏的源中正确重建阵列。” 不要回答这个问题。 这里没有怨言。RAID控制器“看到”事物的方式与必须引起这种行为的单个驱动器相比,必须有一些根本的技术差异。那技术上有什么区别? 我可以从逻辑上回答自己的问题;RAID控制器将阵列视为单个单元,驱动器在该单元中根据各个扇区来考虑事物。但是似乎可以通过类似于单个磁盘执行操作的方式来解决此问题,并允许该操作再次可用,因此我必须丢失某些内容。 Spiceworks的这一线索暗示着UREs确实存在问题,但令人费解。线程中有很多链接可以遵循。

1
使用RAID 10和RAID 5时的磁盘耐用性
大多数时候,有关不同RAID级别的技术文章主要是关于它们的冗余程度,读/写速度等方面的信息。 但是我找不到有关某个RAID中的磁盘寿命比其他RAID级别更长的信息。(忽略容量,速度和冗余因素) 特别是我对RAID 5和RAID 10感兴趣。 一个磁盘发生故障时,RAID 5允许我们进行冗余RAID 10允许我们进行至少1个磁盘故障进行冗余。 但是,如果我们有两个100%的服务器(不同的RAID级别除外)具有相同的数据,相同的负载等(同样,尽管有容量因素) 因此,在哪个RAID磁盘上可以“生存”更长的时间? 对于RAID 5,RAID控制器可以计算任何写入/读取的奇偶校验,对吗?这是惩罚。 对于RAID 10,它将镜像和条带化 如果重要的话,这全都与硬件RAID有关!

1
要使2Gbps的线路最大容量,需要多少个RAID0中的驱动器?
要使1Gbps网络连接饱和,需要多少个并行驱动器,配置有RAID 0条带化(nX顺序读/写优势)并且位于硬件RAID控制器(133MHz的PCI-X)后面?那2Gbps呢? 设置小型NAS时,网络连接是一个大变量。一个人可以使用一个千兆以太网连接,将多个绑定在一起(使用受管网络交换机),或者使用更昂贵的光纤通道选项。坚持使用CAT5e / 6电缆可将成本降低到我可以管理的水平,但是我仍然希望在不引入浪费的瓶颈的情况下最大程度地利用它。 参考希捷的外部传输速率(突发)约为300MB / s(2.3Gbps)的示例,以及storagereview.com的3TB评论之一显示,持续传输速率约为110MB / s(0.9Gbps),我必须得出以下结论:通过1Gbps线路访问时,在多个并行驱动器之间设置RAID条带化没有明显的性能优势。单个驱动器使用近1Gbps的带宽。 当然,数据必须跳几圈才能从驱动器控制器连接到电缆,从而降低了有效的服务器传输速率。RAID控制器引入了更多开销,尽管并行驱动器弥补了不足,但还有什么余地?因此,我的问题。 请注意,一个133MHz的PCI-X接口可支持多达8.5Gbps的[维基百科]。尝试忽略条带大小,协议开销等之间的差异,并仅从硬件角度来看问题。 示例答案: 我的NAS主板“ A”(具有“ B” GB的RAM)和[133MHz PCI-X] RAID控制器卡“ C”的最大吞吐量约为7Gbps。限制因素是以太网控制器。我观察到,使用iperf时,只有2个驱动器/ 3个驱动器使1Gbps / 2Gbps的连接饱和,大约为100MBps / 200MBps。

0
与RAID-6(mdadm)+ LUKS + XFS对齐
我想要的是: 我有一个带有mdadm的4x4TB RAID-6阵列。 我希望对存储进行加密,并计划使用LUKS。 我很可能会使用XFS作为文件系统。 我将在阵列中添加更多磁盘,因为需要更多空间并且有可用资金。 我的想法: 除非另有说明,否则我打算只在md数组上创建一个LUKS容器,然后将文件系统放在LUKS容器中。 我已经照顾了md数组本身的对齐方式。 我的问题: 如何在md数组中找到LUKS的对齐方式? 如何在LUKS上使XFS对齐? 有什么不符合我的预期设置的吗?


0
RAID 5阵列降级,无法添加替换驱动器
因此,我在RAID中有两个驱动器被标记为有故障的备用磁盘,我已将它们删除,然后我试图--force组装RAID,但出现了- mdadm: /dev/md0 assembled from 2 drives and 1 spare - not enough to start the array. 然后,我尝试将新驱动器添加到池中,最终结果是- mdadm --manage /dev/md0 --add /dev/sdc1 mdadm: cannot get array info for /dev/md0 然后,我尝试检查突袭的状态- mdadm --detail /dev/md0 mdadm: md device /dev/md0 does not appear to be active. 将新驱动器添加到RAID的最佳方法是什么?

1
RAID 5恢复重置CMOS和驱动器显示为2 Member 4 non-Member
重置BIOS并安装新的C(Windows)驱动器后,如何还原RAID阵列(不是C驱动器的一部分)。 我的设置:(其中有很多数据,我承受不起丢失,大多数数据是无法替代的) Array 000 3x3TB HDD in raid 5 Array 001 3x3TB HDD in raid 5 Both raid are on the Intel ICHR10 controller Single drive for my C drive (on different chipset). 问题原因:我的C盘发生故障,并且我遇到了其他一些问题。因此,我卸下了C驱动器,将其替换为另一个驱动器。在读取新驱动器时遇到问题,因此我清除了CMOS(忘记将RAID重置为IDE模式)。 安装了新的C驱动器,并在其上安装了Windows。安装了Intel RST并在BIOS中设置RAID模式。在RAID驱动器启动期间,它会同时显示RAID阵列“ FAILED”,并显示成员磁盘(0)和成员磁盘(1)以及4x非成员磁盘。 我最初为每个驱动器阵列命名以标识驱动器上的内容,并且仍显示其专有名称,只是“失败”状态。 数据应该没有问题,发生故障的驱动器是我的C驱动器,它位于其他芯片组上,而不是RAID控制器的一部分。 可能的解决方案?我发现具有任何可能的解决方案的唯一线程是这里: Raid 5 Recovery Partition Table 我有点犹豫要执行这些步骤,因为我缺乏这类知识,因此有可能丢失所有数据。同样,步骤之一是说将磁盘重置为非RAID,这也令我感到担忧。

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.