Questions tagged «mdadm»

用于管理软件RAID设备的linux实用程序。

9
如何中断软件团队重新同步?
我想中断对debian squeeze软件raid的运行中的重新同步操作。(这是常规的预定比较比较同步。在这种情况下,raid阵列仍然干净。在磁盘发生故障并更换磁盘后,请勿将其与重建混淆。) 如何在运行时停止此计划的重新同步操作?另一个RAID阵列是“重新同步未决”,因为它们都在同一天(星期日晚上)接连检查。我希望此星期日晚上重新同步完全停止。 [编辑:sudo kill -9 1010不会停止,1010是md2_resync进程的PID] 我还想知道如何控制重新同步之间的间隔以及到下一次的保持时间。 [Edit2:我现在所做的是使重新同步非常缓慢,因此不再受到干扰: sudo sysctl -w dev.raid.speed_limit_max=1000 取自http://www.cyberciti.biz/tips/linux-raid-increase-resync-rebuild-speed.html 在夜间,我将其设置回较高的值,因此重新同步可以终止。 对于大多数情况,此解决方法都很好,不过,知道我所问的内容是否可能会很有趣。例如,在重新同步或重新同步“待处理”时似乎无法增长数组]

5
创建新阵列后恢复RAID 5数据,而不是重复使用
敬请市民提供协助-我是新手,头疼重重(完美的风暴情况)。 我在ubuntu 11.04上配置了3个1TB HDD,配置为软件RAID5。数据每周被复制到计算机硬盘驱动器的另一个硬盘上,直到完全失败并被丢弃。几天前,我们停电了,重新启动我的盒子后,该RAID无法挂载。我以无限的智慧进入 mdadm --create -f... 命令代替 mdadm --assemble 直到后来我才注意到我做的怪事。它开始使阵列降级,并继续构建和同步它,此过程耗时约10个小时。回到我后,我发现该阵列已成功启动并运行,但团队未 我的意思是单个驱动器已分区(分区类型f8),但md0设备未分区。惊恐地意识到我所做的一切,我试图找到一些解决方案。我只是祈祷--create没有覆盖硬盘驱动器的全部内容。 有人可以帮我解决这个问题吗-硬盘上的数据非常重要,并且具有约10年的照片,文档等独特信息。 通过以错误的顺序指定参与的硬盘驱动器是否有可能mdadm覆盖它们?当我做 mdadm --examine --scan 我得到类似 ARRAY /dev/md/0 metadata=1.2 UUID=f1b4084a:720b5712:6d03b9e9:43afe51b name=<hostname>:0 有趣的是,过去曾经有足够的名字被“突袭”,而不是主机名后面附加了0 :。 这是“经过消毒的”配置条目: DEVICE /dev/sdf1 /dev/sde1 /dev/sdd1 CREATE owner=root group=disk mode=0660 auto=yes HOMEHOST <system> MAILADDR root ARRAY /dev/md0 metadata=1.2 name=tanserv:0 UUID=f1b4084a:720b5712:6d03b9e9:43afe51b Here is the output from mdstat …

5
将Linux软件RAID 1扩展到RAID 10的最佳方法
mdadm 似乎不支持将阵列从1级扩展到10级。 我在RAID 1中有两个磁盘。我想添加两个新磁盘并将该阵列转换为四个磁盘的RAID 10阵列。 我目前的策略: 做好备份。 创建具有两个缺少磁盘的降级4磁盘RAID 10阵列。 rsync the RAID 1 array with the RAID 10 array. fail and remove RAID 1阵列中的一个磁盘。 将可用磁盘添加到RAID 10阵列,然后等待重新同步完成。 销毁RAID 1阵列,然后将最后一个磁盘添加到RAID 10阵列。 问题是步骤5缺少冗余。 有没有更好的办法?


3
如何将Linux软件RAID移至新计算机?
我有一台新安装的计算机,其中安装了新的Gentoo Linux,另一台计算机则安装了软件RAID 5阵列(将4个IDE磁盘连接到板外PCI控制器)。我已经成功地将控制器移到了新机器上。驱动器被内核检测到;并且我使用了mdadm --examine并验证了单个RAID分区是否被检测到,干净了,甚至按照“正确”的顺序进行了检查(hde1 ==驱动器0,hdg1 ==驱动器1,等等)。 我无权访问的是旧计算机上的原始配置文件。我应该如何重新激活该阵列而不丢失数据?

4
Linux mdadm软件RAID 6-是否支持位损坏恢复?
维基百科说:“ RAID 2是唯一的标准RAID级别,除了RAID 6的某些实现之外,它可以自动从数据中的单个位损坏中恢复准确的数据。” 有谁知道Linux中的RAID 6 mdadm实现是否可以自动检测单位数据损坏并从中恢复的一种实现。如果这些版本与其他版本不同,则适用于CentOS / Red Hat 6。我尝试在线搜索,但运气不佳。 SATA错误率是1E14位中的1,而2TB SATA磁盘包含1.6E13位,这与防止数据损坏特别相关。 编辑2015年6月17日 我相信这本来不是我最初考虑的问题-请参阅硬盘/ SSD-错误的检测和处理-是否可以可靠地防止静默数据损坏?更多细节

2
验证分区是否在具有RAID和LVM的Linux中对齐
有谁知道验证LVM和md RAID之上的XFS文件系统是否正确对齐4096字节又称为“高级格式”扇区磁盘的阵列的步骤? 一些参考是: http : //www.ibm.com/developerworks/linux/library/l-4kb-sector-disks/index.html http://thunk.org/tytso/blog/2009/02/20/aligning -文件系统到ssds-擦除块大小/ 这个问题的内容也与Stack Overflow的新NAS有关:http : //blog.serverfault.com/post/798854017/the-theoretical-and-real-performance-of-raid-10
15 linux  raid  partition  mdadm  xfs 

3
mdadm raid5恢复双磁盘故障-扭曲(驱动器顺序)
首先,我要承认自己犯了错误,并且为该RAID上的大部分但不是全部数据提供了备份。我仍然希望恢复其余数据。我没有钱将驱动器带到恢复专家公司。 错误#0,没有100%的备份。我知道。 我有一个mdadm4x3TB 的RAID5系统。驱动器/ dev / sd [be]都具有一个分区/dev/sd[b-e]1。我知道非常大的驱动器上的RAID5很有风险,但是我还是这么做了。 最近发生的事件 两个驱动器发生故障后,RAID降级。一个驱动器[/ dev / sdc]确实没了,而另一个[/ dev / sde]重启后又恢复了,但没有自动重新添加到RAID中。因此,我只剩下4个RAID设备,只有2个活动驱动器[/ dev / sdb和/ dev / sdd]。 错误#1,未使用驱动器的dd副本还原RAID。我没有驱动器或时间。错误#2,不备份超级块和mdadm -E其余驱动器。 恢复尝试 我以降级模式重新组装了RAID mdadm --assemble --force /dev/md0, using /dev/sd[bde]1. 然后,我可以访问我的数据。我换/dev/sdc了一个备用的;空 相同的驱动器。 我/dev/sdc1从RAID中删除了旧的 mdadm --fail /dev/md0 /dev/sdc1 错误3,在更换驱动器之前不要这样做 然后,我对新分区进行了分区/dev/sdc,并将其添加到RAID。 mdadm --add /dev/md0 /dev/sdc1 然后,它开始还原RAID。预计时间:300分钟。我按照流程进行/proc/mdstat到2%,然后去做其他事情。 检查结果 几个小时(但不到300分钟)后,我检查了该过程。由于出现读取错误,它已停止/dev/sde1。 真正的麻烦就在这里 然后/dev/sde1,我从RAID中删除并重新添加了它。我不记得为什么要这么做了。太晚了。 …

3
解释md的raid10,f2
我知道各种RAID的大部分工作方式。但是我 在研究linux软件raid时偶然发现了推荐的raid10,f2模式。我不太了解它如何在2或3个磁盘上工作。有人可以向我解释吗?还是让我指向一篇很好的文章来解释它?

1
问:MDADM mismatch_cnt>0。有什么方法可以确定哪些块不一致?
好的。经过例行清理之后,我的MDADM RAID5报告了mismatch_cnt =16。据我所知,这意味着尽管没有设备报告读取错误,但有16个块的数据和奇偶校验不一致。 问题1:能否获得这些区块的列表? 问题2:假设基础文件系统是EXT4,则可能存在#1,是否有办法识别与这些块关联的文件? 我确实有近线备份,并且在理想情况下,我可以将实时阵列与备份数据进行比较,以找到已被静默损坏的任何文件。但是现实是,召回6TB备份数据既昂贵又费时。知道在哪里寻找和恢复什么将大大简化事情。 (我应该注意,我只使用'check'选项运行RAID scrub。使用'repair'选项运行scrub似乎非常危险,因为MDADM只知道数据或奇偶校验是错误的,但不知道是哪一个。因此,MDADM似乎有50%的机会猜错并重建不正确的数据。因此,我希望知道哪些文件可能受到影响,以便在需要时可以从备份中还原它们。 任何建议,不胜感激!
12 linux  mdadm 

3
如何使用mdadm调整RAID1阵列的大小?
我正在运行Ubuntu 11.04(内核2.6.38-11)。我用2x500GB驱动器替换了2x160GB。它们被配置为RAID1。 分区表显示正确的大小。这是sfdisk: # sfdisk -d /dev/sdb # partition table of /dev/sdb unit: sectors /dev/sdb1 : start= 63, size= 192717, Id=fd, bootable /dev/sdb2 : start= 192780, size= 7807590, Id=fd /dev/sdb3 : start= 8000370, size=968767695, Id=fd /dev/sdb4 : start= 0, size= 0, Id= 0 和fdisk: # fdisk -l /dev/sdb Disk /dev/sdb: …

3
如何重命名mdadm RAID阵列?
我组装了一个新的RAID阵列来替换旧的。但是,这个新数组的自动名称为/ dev / md127,我想将其重命名为/ dev / md3,这样我就不必更改其他各种设置。如何重命名mdadm RAID阵列?
12 linux  raid  mdadm 

2
如何在驱动器处于“ E”状态的Synology NAS上恢复mdadm阵列?
Synology具有md驱动程序和mdadm工具集的自定义版本,可在内核的rdev-> flags结构中添加“ DriveError”标志。 实际影响-如果您很不幸导致阵列故障(第一个驱动器),再加上第二个驱动器上的错误-阵列将进入一种状态,即使从驱动器上读取数据,该阵列也无法修复/重建阵列精细。 在这一点上,从THIS数组的角度来看,我并不真正担心这个问题,因为我已经撤消了内容并打算进行重构,但更多的是希望将来有一个解决之道。 ,因为这是我第二次受到它的困扰,而且我知道我已经看到其他人在论坛上问类似的问题。 对Synology的支持并没有多大用处(并且大多是无响应的),并且不会共享任何有关处理包装盒上突袭的信息。 / proc / mdstat的内容: ds1512-ent> cat /proc/mdstat Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] md2 : active raid5 sdb5[1] sda5[5](S) sde5[4](E) sdd5[3] sdc5[2] 11702126592 blocks super 1.2 level 5, 64k chunk, algorithm 2 [5/4] [_UUUE] md1 : active raid1 sdb2[1] sdd2[3] …

4
apt-get install linux-image-extra得到“ W:mdadm:/etc/mdadm/mdadm.conf没有定义数组。”
安装时: sudo apt-get install \ linux-image-extra-$(uname -r) \ linux-image-extra-virtual 我正进入(状态: W: mdadm: /etc/mdadm/mdadm.conf defines no arrays. 我发现其他人也有类似的问题:apt-get update mdadm可怕的警告 所以我按照指示进行: /usr/share/mdadm/mkconf > /etc/mdadm/mdadm.conf 然后: update-initramfs -u 但是输出是: update-initramfs: Generating /boot/initrd.img-4.10.0-30-generic W: mdadm: /etc/mdadm/mdadm.conf defines no arrays. lsb_release -a LSB Version: core-9.20160110ubuntu5-amd64:core-9.20160110ubuntu5-noarch:security-9.20160110ubuntu5-amd64:security-9.20160110ubuntu5-noarch Distributor ID: Ubuntu Description: Ubuntu 17.04 Release: 17.04 Codename: …

5
linux LVM镜像与MD镜像
我想我记得几年前使用LVM制作了一些镜像,而且我也不记得这个“日志”的东西。或者,也许我使用mdadm制作了镜像并将LVM放在顶部。一定是这样。 如果LVM日志只是镜像,该怎么办?那里存储了什么?目的是什么?使用“ --mirrorlog核心”不好吗?缺点是什么?如果不需要,我不需要为日志分配另一个分区。 关于使用这两种技术的任何建议?即使我使用mdadm制作镜像,也要在其上使用LVM。因此,在那种情况下,也许最好是用LVM构建整个设置……?这会对性能造成更大的影响还是更少? 磁盘用于存储Xen domU“磁盘”。 对复杂的非重点“问题”感到抱歉。 欢迎提出想法,建议和链接。谢谢!
11 lvm  mdadm  logging  mirror 

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.