Questions tagged «raid1»

RAID 1或镜像RAID使用两个或多个存储相同数据的磁盘。

1
挂载:未知文件系统类型'linux_raid_member'
我有Suse Linux 12.1,我正在尝试安装单个RAID 1磁盘,以浏览其中的文件。但是,安装时: # mount /dev/sdc1 /mnt/test mount: unknown filesystem type 'linux_raid_member' 我开始阅读,很多建议只强制使用文件系统类型 # mount -t ext4 /dev/sdc1 /mnt/test mount: /dev/sdc1 already mounted or /mnt/test busy 尝试时 umount /dev/sdc1 umount: /dev/sdc1: not mounted 有人可以提供一些建议吗? 我正在运行在ESXI服务器上的机器,它是一个虚拟磁盘。但是,这不应播放,因为其他任何计算机都未使用该磁盘 谢谢!

6
我是否应该“运行”新的RAID 1对中的一个磁盘以减少发生类似故障时间的机会?
我正在设置一个由两个新的4TB硬盘驱动器组成的RAID1阵列。 我之前在某处听说过,同时购买RAID1阵列的新的相同硬盘会增加它们在相似的时间点发生故障的机会。 因此,我正在考虑单独使用其中一个硬盘驱动器一段时间(也许几个星期),以尝试减少两个硬盘驱动器在短时间内出现故障的可能性。(未使用的驱动器将在抽屉中保持断开状态) 这似乎是一种合理的方法,还是我很可能只是在浪费时间?

6
为什么RAID 1 + 6不是更常见的布局?
为什么几乎没有听说过嵌套RAID级别1 + 5或1 + 6?该嵌套的RAID级别维基百科的文章,目前缺少的部分。我不明白为什么它们不比RAID 1 + 0更常见,特别是与RAID 1 + 0三重镜像相比。 显然,随着驱动器容量的增长快于其性能或可靠性,重建时间变得越来越成问题。有人告诉我RAID 1的重建速度更快,而RAID 1对的RAID 0阵列可以避免此问题,但是RAID 5对或RAID 1对的RAID 5或6阵列肯定可以避免此问题。我至少希望它们是RAID 1 + 0的常见替代方案。 对于16个1TB的驱动器,以下是我求助于备份的天真的概率的计算,即,在简化的假设下,这些驱动器是独立的,并且具有均匀的概率: RAID | storage | cumulative probabilities of resorting to backup /m 1+0 | 8TB | 0, 67, 200, 385, 590, 776, 910, 980, 1000, 1000, 1000 1+5 | …
17 raid  raid1  raid6 

4
低端硬件RAID与软件RAID [关闭]
关闭。这个问题是题外话。它当前不接受答案。 想改善这个问题吗? 更新问题,使它成为服务器故障的主题。 2年前关闭。 我想在旧电脑上建立一个低端6TB RAID 1存档。 MB: Intel d2500hn 64bit CPU: Intel Atom D2500 RAM: 4GB DDR3 533 MHz PSU: Chinese 500W NO GPU 1x Ethernet 1Gbps 2x SATA2 ports 1x PCI port 4x USB 2.0 我想在Linux上构建RAID1存档(我想是CentOS 7,然后我将安装我需要的所有东西,我认为是ownCloud或类似的东西),并在我的本地局域网中使用它。 10-20美元的RAID PCI控制器还是软件RAID更好? 如果软件突击比较好,我应该在CentOS上选择哪个?将系统放在外部USB上并在连接器上使用2个磁盘是更好的选择还是将系统放在一个磁盘中然后创建RAID? 如果我要使用3磁盘RAID 5,应该选择硬件RAID PCI还是简单的PCI SATA连接器?

3
如何使用mdadm调整RAID1阵列的大小?
我正在运行Ubuntu 11.04(内核2.6.38-11)。我用2x500GB驱动器替换了2x160GB。它们被配置为RAID1。 分区表显示正确的大小。这是sfdisk: # sfdisk -d /dev/sdb # partition table of /dev/sdb unit: sectors /dev/sdb1 : start= 63, size= 192717, Id=fd, bootable /dev/sdb2 : start= 192780, size= 7807590, Id=fd /dev/sdb3 : start= 8000370, size=968767695, Id=fd /dev/sdb4 : start= 0, size= 0, Id= 0 和fdisk: # fdisk -l /dev/sdb Disk /dev/sdb: …

11
RAID5是否比RAID1更强大
我将用Linux软件RAID1阵列替换旧的硬件RAID5阵列。我在和一个朋友聊天,他声称RAID5比RAID1更强大。 他声称,使用RAID5时,读取奇偶校验数据是为了确保所有驱动器都返回正确的数据。他进一步声称,在RAID1上,驱动器上发生的错误将不会被注意到,因为对RAID1不会进行任何此类检查。 我可以看到这可能是真的,但也可以看到,这一切都取决于如何有问题的RAID系统中实现。当然一个RAID5系统不具备阅读和检查读取和RAID1系统奇偶校验数据可以很容易地从读取所有驱动器读取检查他们都持有相同的数据,因此实现稳健的同一水平(造成相应的性能损失)。 所以问题是,现实世界中的RAID5 / RAID1系统实际上会做什么?RAID5系统是否检查读取的奇偶校验数据?是否有RAID1系统可以读取所有驱动器并比较读取的数据?

1
HP Smart Array P410:将RAID10转换为RAID1或从RAID10中删除磁盘
我有一台服务器,带有两个146GB磁盘的RAID10阵列。我正在尝试用两个2TB磁盘的RAID1替换一个146GB磁盘的RAID10阵列。由于没有可用的端口,因此我从阵列中取出了两个要替换的磁盘。现在,我的突袭状态如下: # /opt/hp/hpssacli/bin/hpssacli ctrl all show config Smart Array P400 in Slot 1 array A (SAS, Unused Space: 0 MB) logicaldrive 1 (273.4 GB, RAID 1+0, Interim Recovery Mode) physicaldrive 2I:1:1 (port 2I:box 1:bay 1, SAS, 146 GB, Failed) physicaldrive 2I:1:2 (port 2I:box 1:bay 2, SAS, 146 GB, Failed) physicaldrive …

1
以64kb的块大小从XFS中获取文件
我一直在执行任务,以从我以前使用过RAID 1的2个运行良好,未损坏,未加密的NAS驱动器之一中恢复文件。 )使用Promise Fasttrack假RAID控制器。 信息非常匮乏,因此对于处于相同情况的Google员工,以下是有关此NAS的一些事实: RAID控制器:Promise FastTrack(FakeRaid) 卷系统:LVM2 文件系统:具有64kb块大小的XFS(65536字节) Arch:800MHz AMCC PowerPC处理器,256MB RAM(感谢Matthew的研究) 执行此操作时,我只有Windows 10和MacOS计算机,但没有找到能够在XVM 2卷中挂载XFS的软件(有1个例外,下面对此进行了详细介绍)。我必须取出旧的上网本Acer Aspire One,并在上面安装uppy linux(特别是lxpup风格)。 在小狗linux上,我设法使用名为的工具挂载了此文件系统dmraid。该工具可以挂载pdc卷,这是Promise FastTrack的ID。一旦我设法跳过安装它的障碍,就可以访问实际的XFS文件系统,但令我沮丧的是,它的大小为64kb。 在这里,我开始搜索“读取xfs 64kb块大小”之类的东西,却一无所获。只有几个回答说:“除非您修补内核,否则Linux无法读取大于4kb的块大小”。我不知道该如何修补内核,而我对此感到困惑,因为没有任何模拟可以允许这样做。 我在无法在Win / Mac上读取此分区的应用程序中提到1个例外。那个例外是ufsexplorer。它是一款售价100美元的应用,能够无缝显示文件。我复制了一些文件以证明其有效,但是试用版仅允许复制微小文件。 我拒绝相信没有任何一种免费的开源工具,其复杂程度无法帮助我阅读64kb xfs。 我的问题是:有人知道这样的工具吗?非常感谢您提供有关如何使用一个或多个工具,内核修补程序或其他工具(免费)获取数据的任何特定说明。 还有一点:我非常希望不必为这些驱动器创建本地映像(除非这是唯一的方法)。毕竟是2TB的数据,我可能没有那么多空间。 PS:如果我可以在Acer上安装一个已知的linux,它可以读取64kb xfs,那也是一个可行的解决方案。 更新1:我刚刚了解了https://www.cgsecurity.org/wiki/TestDisk。可能值得一试。我有时间尝试后会回报。 更新2:TestDisk似乎可以识别XFS分区的存在,但是我不确定如何从那里进行格式化。我没有找到提取文件的方法,因此我暂时放弃了该文件,并尝试在Matthew的答案中使用qemu方法。

2
如何将现有RAID1附加到新的Linux系统?
我有一个RAID1当前在单个硬盘驱动器上运行(是的,没有镜像)。是否可以使用以下算法重新组织系统? 我设置了另一个单磁盘RAID1(位于相同类型的另一个HDD上),对其进行分区并在其上安装Debian的新实例。 我安装了旧的单磁盘RAID1设置,并将所有数据从其中复制到新的RAID。 然后,我重新格式化旧磁盘,并将其包含在新的RAID设置中。 我主要怀疑第二点-我应该怎么做?
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.