Questions tagged «software-raid»

2
使用LVM和MDRAID进行RAID-优缺点?
在回答“混合RAID类型”问题时,HBruijn建议使用LVM来实现RAID,而不是更标准的MDRAID。 经过一番调查,看来LVM也支持RAID功能。过去,我曾在MDRAID之上使用LVM,但直到现在我才意识到LVM也支持RAID功能。这似乎是一个相对较新的进展,但是我还没有确切地知道何时实施。 因此,这些是在Linux上实施软件RAID的替代方法。这两种不同方法的优缺点是什么?我正在寻找两种方法之间的功能比较,以便人们可以决定哪种方法更适合他们。只要您将数据包括在答案中,基于实验的结论(例如,此功能将无法正常运行,这就是原因)也是可以的。 需要解决的一些特定问题: 假设我想做sw RAID + LVM(一种常见情况)。我是否应该使用LVM对sw RAID的支持,从而使用一个实用程序而不是两个?这种更加集成的方法是否有任何优势? 与更成熟的MDADM相比,对sw RAID的LVM支持是否存在重大缺陷?具体来说,LVM对sw RAID的支持有多稳定/没有错误?似乎该支持只能追溯到2011年(请参见下文),而MDADM则要早得多。此外,在功能集方面如何进行比较?与MDADM相比,它是否存在明显的功能缺陷?相反,它是否支持MDADM不具备的任何sw RAID功能? 笔记: 在http://www.olearycomputers.com/ll/linux_mirrors.html上有详细的讨论, 但是我无法确定它的写成日期。 关于Serverfault的类似问题:linux LVM镜像与MD镜像。但是,这个问题是在2010年提出的,答案可能已经过时。 版本2.02.87-2011年8月12日的更新日志条目具有 为MD RAID 1/4/5/6支持添加新的segtype'raid'的configure --with-raid 因此,看起来LVM中的RAID支持已有3年的历史了。
51 lvm  raid  software-raid  md 

4
直接使用分区或整个磁盘创建mdadm数组有什么区别
有人可以告诉我,mdadm使用分区或直接使用整个磁盘创建阵列有什么区别?假设我打算使用整个驱动器。请注意,它们与GPT一起使用。 想象一下以两种方式创建RAID6: mdadm --create /dev/md0 --level=6 --raid-devices=4 /dev/sda1 /dev/sdb1 /dev/sdc1 /dev/sdd1 要么: mdadm --create /dev/md0 --level=6 --raid-devices=4 /dev/sda /dev/sdb /dev/sdc /dev/sdd 有区别吗? EDIT1:我的意思是例如在此类阵列上进行可靠性或可管理性或恢复操作等。 EDIT2:我确实使用其他制造商的驱动器。但这不是真正的问题。它们都具有完全相同的尺寸,我要说的是,可能有制造商制造的驱动器尺寸略有不同。但是为了这个问题,让我们假设它们的大小相同。 EDIT3:某种免责声明:到目前为止,我一直在对驱动器进行分区。

3
如何安全地替换Linux RAID5阵列中尚未发生故障的磁盘?
我在4个磁盘上有一个软件RAID5阵列(Linux md)。 我想用一个新磁盘替换其中一个磁盘,而不会使阵列处于降级状态,如果可能,请使其联机。那怎么可能呢? 这很重要,因为我不想: 冒使其他磁盘承受压力的风险,以便在重建过程中可能会崩溃, 冒处于“无奇偶状态”的风险,因此我有一段时间没有安全网了。 我想在网上这样做太麻烦了,我应该dd将旧磁盘的数据原始复制()到离线的新磁盘上,然后替换它,但是从理论上讲,这是可能的... 背景信息:这些磁盘几乎一直在连续旋转5.5年以上。目前,它们仍然可以正常工作,并且都通过了(长期)SMART自检。但是,我有理由认为这4个磁盘中的一个不会持续很长时间(假定为预测性故障)。

3
如何在软RAID 1上正确安装GRUB?
在我的设置中,我有两个磁盘,每个磁盘都采用以下方式进行格式化: (GPT) 1) 1MB BIOS_BOOT 2) 300MB LINUX_RAID 3) * LINUX_RAID 引导分区映射在/ dev / md0中,rootfs映射在/ dev / md1中。md0用ext2格式化,md1用XFS格式化。(我知道必须在md设备上而不是在sd上进行格式化-如果这是错误的,请告诉我)。 如何正确设置GRUB,以便如果一个驱动器发生故障,另一个驱动器仍会启动?通过扩展,替换驱动器也会自动包含GRUB吗?当然,如果可能的话。

5
/ dev / mapper下的lvm设备丢失
这个问题是从Server Fault 迁移过来的,因为可以在Unix&Linux Stack Exchange上回答。 迁移 8年前。 我正在使用Debian压缩技术,并在软件RAID 1上运行LVM。我只是偶然地发现,下面的大多数链接/dev/mapper都丢失了,尽管我的系统似乎仍然可以正常运行。 我不确定发生了什么。我能想象的唯一原因是我未能使LXC fedora容器正常工作。我最终删除了/cgroup/laughlin与容器相对应的目录,但是我无法想象为什么这应该导致问题。 /dev/mapper看起来(我做了一些更改,请参见下文)大致像 orwell:/dev/mapper# ls -la total 0 drwxr-xr-x 2 root root 540 Apr 12 05:08 . drwxr-xr-x 22 root root 4500 Apr 12 05:08 .. crw------- 1 root root 10, 59 Apr 8 10:32 control lrwxrwxrwx 1 root root 7 …

5
Linux-使用GPT修复RAID1阵列上的坏块
tl; dr:如何修复RAID1阵列中1个磁盘上的坏块? 但是请阅读整篇文章,以获取我已经尝试过的内容以及方法中可能出现的错误。我尝试了尽可能详细,我真的希望能得到一些反馈 这是我的情况:在由管理的RAID1阵列中设置了两个2TB磁盘(相同型号)mdadm。大约6个月前,我在SMART报告时注意到了第一个坏块。今天,我注意到了更多信息,现在正在尝试对其进行修复。 该HOWTO页似乎是每个人都可以链接以解决SMART报告的坏块的文章。这是一个很棒的页面,充满了信息,但是它已经过时了,无法解决我的特定设置。这是我的配置不同之处: 我在RAID1阵列中使用了两个磁盘,而不是一个磁盘。一个磁盘报告错误,而另一个磁盘正常。HOWTO的编写只考虑了一个磁盘,这会引发各种问题,例如“我是否在磁盘设备或RAID设备上使用此命令”? 我正在使用fdisk不支持的GPT。我一直在使用gdisk,并且希望它能为我提供所需的相同信息 因此,让我们开始吧。这是我所做的,但是似乎没有用。请随时仔细检查我的计算和方法是否有错误。磁盘报告错误为/ dev / sda: # smartctl -l selftest /dev/sda smartctl 5.42 2011-10-20 r3458 [x86_64-linux-3.4.4-2-ARCH] (local build) Copyright (C) 2002-11 by Bruce Allen, http://smartmontools.sourceforge.net === START OF READ SMART DATA SECTION === SMART Self-test log structure revision number 1 Num Test_Description Status Remaining LifeTime(hours) …

4
如何在另一台机器上作为mdadm raid 1一部分的磁盘上装载/恢复数据?
一些背景 磁盘本身是由一位朋友“处理过”的,据说仍然完好无损,并且仍可安装/恢复。 该磁盘是Ubuntu 12.04上的软件团队1的一部分 原始RAID 1中的另一个磁盘已格式化并用于其他目的,从技术上讲,使当前磁盘(有问题的磁盘)在RAID中仍然不存在 我已经尝试过的 基本安装 我在fstab中添加了一个条目,将磁盘标记为ext3 / ext4并尝试挂载。 安装后出现以下错误 wrong fs type, bad option, bad superblock on 并在dmesg中 EXT4-fs (sdc1): VFS: Can't find ext4 filesystem 我试图找到磁盘的文件系统类型,并提出了 $sudo file -s /dev/sdc /dev/sdc: x86 boot sector; partition 1: ID=0x83, starthead 254, startsector 63, 1953520002 sectors, code offset 0xb8 我需要帮助的地方/我的问题 …

2
如何恢复崩溃的Linux MD RAID5阵列?
前段时间我在家中有一个RAID5系统。4个磁盘中的一个发生故障,但是将其删除并放回原位后似乎还可以,所以我开始了重新同步。完成后,令我感到恐惧的是,四分之三的磁盘出现了故障。但是我不相信那是可能的。磁盘上有多个分区,每个分区属于不同的RAID阵列。 md0是由sda1,sdb1,sdc1和sdd1组成的RAID1阵列。 md1是RAID5阵列,由sda2,sdb2,sdc2和sdd2组成。 md2是由sda3,sdb3,sdc3和sdd3组成的RAID0阵列。 md0和md2报告所有磁盘启动,而md1报告3失败(sdb2,sdc2,sdd2)。我的理解是,当硬盘驱动器发生故障时,所有分区都应该丢失,而不仅仅是中间分区。 那时,我关闭了计算机,并拔下了驱动器。从那时起,我就在那台计算机上使用了较小的新磁盘。 是否有恢复数据的希望?我可以以某种方式说服mdadm我的磁盘实际上在工作吗?唯一可能确实有问题的磁盘是sdc,但其他阵列也报告了该问题。 更新资料 我终于有机会连接旧磁盘并从SystemRescueCd引导此计算机。上面的所有内容都是从内存写入的。现在我有一些硬数据。这是输出mdadm --examine /dev/sd*2 /dev/sda2: Magic : a92b4efc Version : 0.90.00 UUID : 53eb7711:5b290125:db4a62ac:7770c5ea Creation Time : Sun May 30 21:48:55 2010 Raid Level : raid5 Used Dev Size : 625064960 (596.11 GiB 640.07 GB) Array Size : 1875194880 (1788.33 GiB 1920.20 GB) …

1
grub-install:文件描述符3在vgs调用中泄漏
我在软件RAID 1的LVM上安装了Debian Jessie。 为了确保MBR写在RAID 1的两个磁盘上,我运行dpkg-reconfigure grub-pc(如建议在这里),然后选择两个磁盘。 我得到那些错误: root@bouzin:/home/jerome# dpkg-reconfigure grub-pc Installing for i386-pc platform. File descriptor 3 (pipe:[1038681]) leaked on vgs invocation. Parent PID 4760: grub-install File descriptor 3 (pipe:[1038681]) leaked on vgs invocation. Parent PID 4760: grub-install File descriptor 3 (pipe:[1038681]) leaked on vgs invocation. Parent PID 4760: grub-install …

3
mdadm:无法删除RAID 1中的组件
我使用mdadm将我的/ boot分区放置在RAID 1阵列中。该阵列在过去已经退化了几次,每次我删除物理驱动器时,添加一个新的驱动器,使该阵列恢复正常,它将使用新的驱动器号。将旧的遗留在阵列中并失败了。我似乎无法删除所有不再存在的组件。 [root@xxx ~]# cat /proc/mdstat Personalities : [raid1] md0 : active raid1 sdg1[10] sde1[8](F) sdb1[7](F) sdd1[6](F) sda1[4] sdc1[5] 358336 blocks super 1.0 [4/3] [UUU_] 这是我尝试删除不存在的驱动器和分区的方法。例如,/dev/sdb1。 [root@xxx ~]# mdadm /dev/md0 -r /dev/sdb1 mdadm: Cannot find /dev/sdb1: No such file or directory [root@xxx ~]# mdadm /dev/md0 -r faulty mdadm: Cannot …

1
如何获取软和硬RAID设备的详细信息?
我想检查我的服务器是否同时将RAID配置为软和硬。 我在服务器(Suse Enterprise Edition 11)上尝试了一些命令: **ms:~ # cat /proc/mdstat Personalities : unused devices: <none> ms:~ #** 我尝试执行,raiddev /dev/md0但是没有raiddev命令可用。 还有其他命令可以让我检查服务器的RAID级别吗?

1
mdadm raid1和4k驱动器上的块大小(或块大小)是多少?
我想在mdadm raid1设置中使用两个3 TB驱动器(使用Debian Sequeeze)。 这些驱动器使用4k硬件扇区,而不是传统的512字节扇区。 我有点困惑,因为一方面内核报告: $ cat /sys/block/sdb/queue/hw_sector_size 512 但另一方面,fdisk报告: # fdisk -l /dev/sdb Disk /dev/sdb: 3000.6 GB, 3000592982016 bytes 255 heads, 63 sectors/track, 364801 cylinders Units = cylinders of 16065 * 512 = 8225280 bytes Sector size (logical/physical): 512 bytes / 4096 bytes I/O size (minimum/optimal): 4096 bytes …


1
mdstat中位图的含义是什么
不久前,我mdadm用RAID6中的4个驱动器创建了新的软件RAID阵列()。似乎工作正常。mdstat如下: Personalities : [raid6] [raid5] [raid4] md0 : active raid6 sda1[0] sde1[3] sdd1[2] sdb1[1] 1953260544 blocks super 1.2 level 6, 512k chunk, algorithm 2 [4/4] [UUUU] bitmap: 0/8 pages [0KB], 65536KB chunk unused devices: <none> 困扰我的是那bitmap: 0/8 pages部分,我不理解。 问题是:这是否是潜在的问题?并且请详细说明一下位图的实际含义。 该数组的完整细节如下: /dev/md0: Version : 1.2 Creation Time : Tue Nov 1 …

2
高IO等待-如何确定根本原因?
我在两个专用服务器上有一个MySQL实例。一个用于生产,另一个用于测试平台。 这两个服务器几乎相同,唯一的区别是RAID控制器和虚拟卷(HD相同)。在生产环境中,有专用的硬件RAID控制器和RAID 10卷。另一方面,RAID控制器似乎是软件(Lenovo ThinkServer RAID 110i),并且卷是RAID 5。 我们注意到在MySQL提交期间,我们的iowait很高: while true; do date; ps auxf | awk '{if($8=="D") print $0;}'; sleep 1; done root 26661 0.0 0.0 0 0 ? D Jun09 5:41 \_ [jbd2/dm-14-8] root 26691 0.0 0.0 0 0 ? D Jun09 0:57 \_ [jbd2/dm-10-8] Thu Jun 18 13:49:37 …

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.