Questions tagged «mdadm»

用于管理软件RAID设备的linux实用程序。

2
从RAID 0磁盘映像中恢复数据
我有四(4)个磁盘在RAID 0中,但(Lacie)硬件机箱出现故障,我正在尝试恢复存储的数据。我现在正在尝试重建RAID以访问存储的数据,但似乎无法找到方法。 我使用ddrescue为每个磁盘创建了一个映像,以检查是否有任何错误,所以我猜磁盘状态良好。 正如我所见,使用fdisk检查导致以下结果: Disk: 1.img geometry: 30401/255/63 [488397168 sectors] Signature: 0xFE01 Starting Ending #: id cyl hd sec - cyl hd sec [ start - size] ------------------------------------------------------------------------ 1: 04 256 12 32 - 298 14 2 [ 708576768 - -1488818672] DOS FAT-16 2: 52 840 6 33 - 256 …

1
将全盘RAID5阵列转换为基于分区的阵列?
我有一个RAID5阵列,md0与三个全磁盘(非分区)的成员,sdb,sdc,和sdd。如果启用AHCI而不是IDE,我的计算机将在AHCI BIOS期间挂起,如果这些驱动器已插入。我相信这可能是因为我正在使用整个磁盘,并且AHCI BIOS期望MBR在驱动器上(我不知道为什么会关心)。 有没有办法将阵列转换为使用成员sdb1,sdc1以及sdd1分区MBR与0xFDRAID分区?
2 linux  raid-5  mdadm 

2
是否可以通过USB安全地从作为mdadm安装的RAID1阵列成员的硬盘驱动器中获取数据?
我有一个由mdadm创建的两个驱动器的RAID1阵列。是否可以卸下其中一个驱动器,将其连接到USB SATA适配器,并安全地安装它,从中获取信息,然后返回驱动器? 我有一台计算机作为文件服务器已经使用了很多年,而且在过去的一年里我已经把它拿走了。当我打开电源时,电源听起来非常糟糕,而且启动速度足够让我担心。我宁愿不炒我的设备而丢失我的数据,那么USB听起来像一个可行的解决方案吗? 如何在另一台计算机的USB上安全地安装RAID1,mdadm创建的阵列的成员? 我正在使用Ubuntu用于旧计算机,如工作计算机上的09.10和11.04。

1
功能性MD复杂RAID10突然将所有驱动器标记为备件
今天早上在长时间的〜1.5TB读取操作中向NFS客户端发送数据时,我的md complex-RAID10阵列自发停止,然后因为“非新鲜”而无法再次启动而丢弃了四个成员。检查mdstat会显示所有被视为“备件”的驱动器。 在Debian 7. 6x HGST Deskstar NAS上运行,四个在Marvell 88SE9230 PCIe附加卡上运行,两个在内部ICH7 SATA上运行。所有驱动器都通过SMART而无需重新分配。丢弃的四个驱动器都在Marvell卡上,但也是sda,sdb,sdc和sdd,我觉得它不一定是控制器,我已经测试过并继续正常工作。 我相信应该备份这个阵列上的所有数据,但我不确定它将处理的所有数据是非常重要的。我的存储工作流程现在处于转换状态,这些数据的备份到处都是。 我怎样才能让这件事重新开始?有些人建议失败并删除每个驱动器并重新添加它,有些人建议使用--force启动阵列,其他人仍然说要使用--assume-clean重新创建阵列,但所有人都只有其他RAID级别的经验。他们和我都不知道这些会如何与复杂的RAID10表现出来并且看起来不太好。 [UPDATE] 我发现设备名称已更改。这就是为什么OS驱动器是mdstat中的sdg(重启后),它是syslog中的sdc(因此是EXT4挂载消息)。现在我不相信被踢出的四个都是Marvell控制器。 我停止了1/3组装的阵列和--assemble --scan显示了四个驱动器“(可能已经过时)”并且它无法从剩下的两个驱动器构建。我再次手动使用--assemble --force并清除了由6个驱动器组装的FAULTY标志,但仍然无法启动数组,因为它们仍然标记为SPARE。因此,这让我了解如何将这些驱动器再次识别为RAID10的各自功能成员,如果可能的话...... mdstat: md0 : inactive sdf[0](S) sdd[5](S) sdc[4](S) sdb[3](S) sda[2](S) sde[1](S) 23441325072 blocks super 1.2 syslog: Dec 13 02:30:02 mWproduction rpc.mountd[2790]: authenticated mount request from 10.10.1.124:993 for /media/MainStore (/media/MainStore) Dec 13 02:33:22 mWproduction …
1 linux  raid  nas  storage  mdadm 

1
mdadm --examine显示与--detail不同的东西
我应该信任谁来填写我的/etc/mdadm/mdadm.conf? mdadm --examine --scan返回,/dev/md/0而显然它/dev/md0正在重建 我应该在/etc/mdadm/mdadm.conf中添加什么? ARRAY /dev/md0 metadata=1.2 UUID=e7c87d29:37d0d6b4:9a336d4f:0e239a13 name=bigbenn:0 要么 ARRAY /dev/md/0 metadata=1.2 UUID=e7c87d29:37d0d6b4:9a336d4f:0e239a13 name=bigbenn:0 ➜ ~ sudo mdadm --detail /dev/md0 [sudo] password for lotso: /dev/md0: Version : 1.2 Creation Time : Tue Nov 6 15:41:25 2012 Raid Level : raid5 Array Size : 7813527552 (7451.56 GiB 8001.05 GB) …

2
/ dev分区丢失,所以mdadm坏了。如何让Linux看到分区?
升级了Linux机箱并更改了根驱动器。我移动了三个SATA驱动器的RAID-5阵列(不是root)。重新安装了操作系统,但之前和之后都是CentOS 6.4。 # mdadm --assemble /dev/md1 /dev/sdc1 /dev/sdd1 /dev/sde1 mdadm: cannot open device /dev/sdc1: No such file or directory mdadm: /dev/sdc1 has no superblock - assembly aborted 确实如此,没有/ dev / sdc1。 分区确实存在: # fdisk -l /dev/sdc Disk /dev/sdc: 1000.2 GB, 1000204886016 bytes 255 heads, 63 sectors/track, 121601 cylinders Units = …
1 linux  centos  raid  mdadm  udev 

0
MDADM重塑2个磁盘RAID 5至4个磁盘RAID6
我正在进行某种非标准的mdadm重塑。我有一个2磁盘raid5(干净状态),我想将其重塑为4磁盘raid6。之所以将其创建为2磁盘raid5而不是2磁盘raid1,是因为我读过某个地方,将来将来更容易重塑形状。似乎并非如此: ~# mdadm --grow /dev/md3 --level 6 --raid-devices 4 --backup /root/md3reshapebackup mdadm: /dev/md3: could not set level to raid6 然后,我尝试使用3磁盘raid6作为中间步骤,但是效果不佳: root@bigbrain:~# mdadm --grow /dev/md3 --raid-devices=3 --level=6 --layout=preserve --backup /root/md3reshapebackup mdadm: /dev/md3: could not set level to raid6 该选项layout=preserve是为了使我和磁盘不必再进行两次翻录。 现在我首先成长为3磁盘raid5,并希望从那里可以进入4磁盘raid6: root@bigbrain:~# mdadm --grow /dev/md3 --raid-devices=3 --backup /root/md3reshapebackup mdadm: Need to backup …
1 linux  raid  mdadm 

2
在Linux上使用软件RAID4写入特定驱动器
编辑以反映评论的结论: 我想构建一个类似于软件RAID的阵列,其中包含2个存储设备和一个奇偶校验设备,其中奇偶校验设备保持其他两个设备的XOR。 这让人想起RAID3或RAID4,除了我希望能够像往常一样安装两个底层设备并写入它们,每次写入设备时都会更新XOR。这也意味着我这样做 不 想要我的数据条纹。 总之,我想要一种允许我自由存储两个已安装设备的数据的安排,以及一个具有这两个设备的最新XOR的第三个设备。 标准Linux RAID4 / mdadm对我不起作用,因为它(1)磁盘上的条带文件(2)阻止了单个磁盘的安装。

1
我如何阻止lilo进行磁盘扫描?
我在RAID5上的LVM上使用root安装了gentoo。我设置lilo时犯了一个错误但是genkernel创建的initrd捕获了它并允许我键入正确的根分区。我修改了lilo.conf,但是当我尝试安装调整后的启动菜单时,我得到了 ... Reading boot sector from /dev/sda Fatal: Incompatible Raid version information on /dev/md0 (RV=0.90 GAI=1.2) 现在我知道我之前从安装CD安装了lilo,所以不知何故它能够更早地通过这个致命的错误。 我需要在lilo.conf中添加什么来告诉lilo忽略该RAID分区?我的initrd为我解决了所有的问题,所以我不需要lilo太聪明的RAID逻辑。
linux  raid  gentoo  mdadm  lilo 

2
Ubuntu RAID 10 - 无法组装
以下是我如何到达这里的简要历史: 4x磁盘Ubuntu 12.04软件RAID10,带5x分区(md0 - md4) 1x磁盘死了 mdadm --fail > mdadm --remove >物理移除驱动器和更换 mdadm --add >磁盘重新同步完美适用于所有分区 决定更换所有磁盘,使它们完全相同 对剩余的3个磁盘重复步骤3-4。第二和第三盘完美无缺。 在更换最终磁盘后,我将其添加回阵列,但被通知文件系统处于只读模式。 cat /proc/mdstat 透露一些分区已经退出但是非常不一致。 我重新启动机器(可能不是最明智的想法) 机器无法启动(我假设新磁盘上没有MBR)。 取代了我取出的最后一个驱动器。机靴到 intitramfs 提示但键盘没有响应。 删除最后一个驱动器,所以现在只剩下3个好的磁盘。 从Ubuntu Live USB启动。 Ubuntu磁盘实用程序列出了4x RAID设备,表示它们处于非活动状态且部分组装。 ubuntu@ubuntu:~$ cat /proc/mdstat Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md3 : inactive sdd8[6](S) sdc8[5](S) …

1
克隆md分区以进行恢复
我有一个失败的软件RAID5(3x500GB磁盘),我正在尝试恢复。我不想在实际磁盘上尝试一些更危险的步骤,所以我想将它们克隆到新的3TB磁盘上的新分区。我使用gparted创建了3个500GB分区,然后使用: dd if=/dev/sdc1 of=/dev/sdb1 dd if=/dev/sdd1 of=/dev/sdb2 dd if=/dev/sde1 of=/dev/sdb3 将每个md分区克隆到它们中。但是mdadm看不到新克隆分区的超级块。我应该如何克隆它们,以便我可以在mdadm中使用它们来尝试恢复我的数据? 如果我尝试激活数组,我目前在/ proc / mdstat中获得以下内容: Personalities : md0 : inactive sdc1[0](S) sde1[2](S) sdd1[1](S) 1465151808 blocks unused devices: <none> 更多信息,来自fdisk(因为我使用gparted创建它们,我使目标分区稍微大一些是安全的): Disk /dev/sdc1: 500.1 GB, 500105217024 bytes Disk /dev/sdd1: 500.1 GB, 500105217024 bytes Disk /dev/sde1: 500.1 GB, 500105217024 bytes Disk /dev/sdb1: 500.2 …

1
当/ dev / sd [abcde] 1重新排序时,mdadm --assemble失败
由于在引导(Debian7)上对/ dev / sd [af]的重复重新排序,我在组装小型RAID5时遇到了麻烦。 md0最初使用sd [abc] 1,它包含一个LUKS设备,该设备又包含一个ext4文件系统。ext4文件系统(已通过fsck验证)以及所有磁盘sd [abc](已通过smartctl验证)都可以使用。 当前,RAID设备不是sd [abc] 1,而是sd [abd] 1。mdadm --examine可以正确识别所有它们(相同的UUID,相同的事件计数),但是即使在检查/ dev / sdd1时,也将sdc1显示为数组的一部分。 我认为,如果重新启动后我得到的是原始订单,那么一切都会恢复正常。 现在,我看到两个解决方案,但都找不到如何实现: 阻止Debian重新排序 确保mdadm不依赖设备的/ dev / sd [af] 1的完全匹配 如何实现这两个功能之一,或者我还能做些什么来使mdadm运行? mdadm.conf: DEVICE /dev/sd[abcef]1 CREATE owner=root group=disk mode=0660 auto=yes HOMEHOST <system> MAILADDR root ARRAY /dev/md0 UUID=b00e130c:359e5dfc:461cb5c0:61dedce4 编辑: 我只是发现了一些琐碎的东西,我不记得在任何地方都清楚地读过,并且以前也不知道:以正确的顺序传递匹配的RAID设备(可能与前一个设备不同)至少在手动组装时会有所帮助。在我的情况下(另一次重新引导按顺序将设备的sd [bcd] 1分配给我): # mdadm --assemble …
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.