Questions tagged «md»

2
使用LVM和MDRAID进行RAID-优缺点?
在回答“混合RAID类型”问题时,HBruijn建议使用LVM来实现RAID,而不是更标准的MDRAID。 经过一番调查,看来LVM也支持RAID功能。过去,我曾在MDRAID之上使用LVM,但直到现在我才意识到LVM也支持RAID功能。这似乎是一个相对较新的进展,但是我还没有确切地知道何时实施。 因此,这些是在Linux上实施软件RAID的替代方法。这两种不同方法的优缺点是什么?我正在寻找两种方法之间的功能比较,以便人们可以决定哪种方法更适合他们。只要您将数据包括在答案中,基于实验的结论(例如,此功能将无法正常运行,这就是原因)也是可以的。 需要解决的一些特定问题: 假设我想做sw RAID + LVM(一种常见情况)。我是否应该使用LVM对sw RAID的支持,从而使用一个实用程序而不是两个?这种更加集成的方法是否有任何优势? 与更成熟的MDADM相比,对sw RAID的LVM支持是否存在重大缺陷?具体来说,LVM对sw RAID的支持有多稳定/没有错误?似乎该支持只能追溯到2011年(请参见下文),而MDADM则要早得多。此外,在功能集方面如何进行比较?与MDADM相比,它是否存在明显的功能缺陷?相反,它是否支持MDADM不具备的任何sw RAID功能? 笔记: 在http://www.olearycomputers.com/ll/linux_mirrors.html上有详细的讨论, 但是我无法确定它的写成日期。 关于Serverfault的类似问题:linux LVM镜像与MD镜像。但是,这个问题是在2010年提出的,答案可能已经过时。 版本2.02.87-2011年8月12日的更新日志条目具有 为MD RAID 1/4/5/6支持添加新的segtype'raid'的configure --with-raid 因此,看起来LVM中的RAID支持已有3年的历史了。
51 lvm  raid  software-raid  md 

3
Linux md RAID:/ dev / md0与/ dev / md / 0
在较新的系统上/usr/share/mdadm/mkconf(用于生成的脚本/etc/mdadm/mdadm.conf)倾向于使用设备名称/dev/md/0而不是/dev/md0: new-system ~ # /usr/share/mdadm/mkconf | grep ARRAY ARRAY /dev/md/0 metadata=1.2 UUID=a0021927:0e4f10bf:2c47dc72:ca0b352e name=unassigned:0 这可能会对希望/dev/md0在那里的用户产生刺激,但是显然可以正常工作,因为服务器可以正常启动。 在/proc/mdstat设备中仍称为/dev/md0: new-system ~ # cat /proc/mdstat Personalities : [raid1] md0 : active raid1 sdb2[2] sda2[0] 1953381184 blocks super 1.2 [2/2] [UU] unused devices: <none> ls显示这/dev/md/0是与以下内容的符号链接/dev/md0: new-system ~ # ls -l /dev/md/0 lrwxrwxrwx 1 root root 6 …
19 debian  mdadm  md 

1
md raid5:将md内部扇区号转换为偏移量
TL; DR摘要:将md扇区号转换为/dev/mdX设备内的偏移量,以及如何使用进行调查xfs_db。扇区号来自sh->sector中linux/drivers/md/raid5.c:handle_parity_checks5()。 我不知道MD的内部原理,所以我不知道该如何处理printk我添加的日志记录的输出。 偏移到组件设备中(对于dd十六进制编辑器或查看器)也将很有趣。 我想我应该在Linux突袭邮件列表中问这个问题。它是仅订阅者,还是可以不订阅而发布? 我将xfs直接放在桌面上的4个磁盘的MD RAID5上(没有LVM)。最近的mismatch_cnt清理发现非零值(实际上是8,因为md一次在4kiB页上运行)。 这是RAID5,而不是RAID1 / RAID10 ,mismatch_cnt在正常操作期间,其中!= 0可能会发生。(此Wiki页面底部的其他链接可能对某些人有用。) 我可以盲目地做repair,但是那时我不知道该检查哪个文件可能的损坏,除了失去选择哪种重建方法的机会。 Frostschutz对类似问题的答案是我发现的唯一回溯到文件系统差异的建议。它既麻烦又缓慢,我宁愿使用更好的方法来首先将其缩小到几个文件。 内核补丁添加日志 奇怪的是,md的检查功能不会报告发现错误的位置。 我加入了printk在MD / raid5.c记录sh->sector在if该增量分支mddev->resync_mismatches中handle_parity_checks5()(小片在github上发布,最初基于4.5 RC4从kernel.org。)对于这个是确定用于一般用途,它可能会需要避免充斥大量不匹配的维修日志(也许仅在新值resync_mismatches<1000 时才记录日志)。也可能只登录check而不是repair。 我敢肯定,我正在记录一些有用的信息(即使我不知道MD内部信息!),因为在处理错误的情况下,switch相同的函数会打印该扇区号。 我编译了修改后的内核并启动了它,然后重新运行检查: [ 399.957203] md: data-check of RAID array md125 ... [ 399.957215] md: using 128k window, over a total of 2441757696k. ... [21369.258985] md/raid:md125: check found mismatch at …
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.