Questions tagged «mdadm»

用于管理软件RAID设备的linux实用程序。

4
运行时如何检查“ mdadm” RAID?
我开始在家中收集一台计算机,并且为了支持它们,我让我的“服务器” linux盒运行RAID阵列。 目前mdadm RAID-1,它会在RAID-5我拥有更多驱动器时(然后RAID-6我希望)。但是,我听说过有关一个驱动器上的数据损坏的各种故事,直到第一个驱动器发生故障,直到发现第二个驱动器也被拧紧(直到第三个,第四个驱动器),您才会注意到由于使用了另一个驱动器,第5个驱动器)。 显然,备份很重要,我也将对此加以注意,但是我知道我以前见过一些脚本,这些脚本声称可以帮助解决此问题,并允许您在RAID运行时检查RAID。但是,现在再次寻找这些脚本,我发现很难找到任何与我之前运行的脚本类似的东西,而且我觉得我已经过时了,不了解发生了什么变化。 您如何检查正在运行的RAID,以确保所有磁盘仍正常运行? 我监视所有驱动器上的SMART,并且mdadm设置为在发生故障的情况下向我发送电子邮件,但我想知道我的驱动器有时也会对其进行“检查”。
41 raid  mdadm 

3
来自blkid和mdadm的UUID之间的区别?
有人可以解释blkid和所报告的UUID之间的区别mdadm吗?例如,在我们的一个CentOS系统上: [root@server ~]# blkid | grep /dev/md1 /dev/md1: UUID="32cb0a6e-8148-44e9-909d-5b23df045bd1" TYPE="ext4" [root@server ~]# mdadm --detail /dev/md1 | grep UUID UUID : f204c558:babf732d:85bd7296:bbfebeea 它们为何不同,我们将如何更改其使用的UUID mdadm? 我了解我们将用于tune2fs更改分区的UUID(这将更改所返回的内容blkid),但不确定如何更改mdadm用途。
26 linux  mdadm  uuid 

4
直接使用分区或整个磁盘创建mdadm数组有什么区别
有人可以告诉我,mdadm使用分区或直接使用整个磁盘创建阵列有什么区别?假设我打算使用整个驱动器。请注意,它们与GPT一起使用。 想象一下以两种方式创建RAID6: mdadm --create /dev/md0 --level=6 --raid-devices=4 /dev/sda1 /dev/sdb1 /dev/sdc1 /dev/sdd1 要么: mdadm --create /dev/md0 --level=6 --raid-devices=4 /dev/sda /dev/sdb /dev/sdc /dev/sdd 有区别吗? EDIT1:我的意思是例如在此类阵列上进行可靠性或可管理性或恢复操作等。 EDIT2:我确实使用其他制造商的驱动器。但这不是真正的问题。它们都具有完全相同的尺寸,我要说的是,可能有制造商制造的驱动器尺寸略有不同。但是为了这个问题,让我们假设它们的大小相同。 EDIT3:某种免责声明:到目前为止,我一直在对驱动器进行分区。

3
如何安全地替换Linux RAID5阵列中尚未发生故障的磁盘?
我在4个磁盘上有一个软件RAID5阵列(Linux md)。 我想用一个新磁盘替换其中一个磁盘,而不会使阵列处于降级状态,如果可能,请使其联机。那怎么可能呢? 这很重要,因为我不想: 冒使其他磁盘承受压力的风险,以便在重建过程中可能会崩溃, 冒处于“无奇偶状态”的风险,因此我有一段时间没有安全网了。 我想在网上这样做太麻烦了,我应该dd将旧磁盘的数据原始复制()到离线的新磁盘上,然后替换它,但是从理论上讲,这是可能的... 背景信息:这些磁盘几乎一直在连续旋转5.5年以上。目前,它们仍然可以正常工作,并且都通过了(长期)SMART自检。但是,我有理由认为这4个磁盘中的一个不会持续很长时间(假定为预测性故障)。

2
mdadm状态“活动”和状态“干净”之间有什么区别
我有两台具有不同RAID5阵列的不同计算机。当我运行命令 mdadm --detail /dev/md0 一个驱动器报告“活动”,而另一个驱动器报告“状态”字段为“干净”。有什么不同?我应该担心这两种状态吗?两者似乎都工作正常。
20 raid  mdadm 

3
我可以用一个设备创建软件RAID 1吗?
我只有一个磁盘要创建其镜像;我们称这个磁盘sda。我刚刚购买了另一个大小相同的磁盘,我们可以称之为sdb。sda并sdb有一个分区分别称为sda1和sdb1。 创建RAID时,我不想擦sda干净然后重新开始,我只希望它使用开始镜像sdb。我的思路是: mdadm --create --verbose /dev/md0 --level=mirror --raid-devices=1 /dev/sda1 ...创建没有sdb磁盘的阵列,然后运行类似的命令(我在想以下命令,因为我不确定如何实现此步骤) mdadm /dev/md0 --add /dev/sdb1 sdb1假定注释的格式与sda1 这可能吗?
20 raid  mdadm  disk 

3
Linux md RAID:/ dev / md0与/ dev / md / 0
在较新的系统上/usr/share/mdadm/mkconf(用于生成的脚本/etc/mdadm/mdadm.conf)倾向于使用设备名称/dev/md/0而不是/dev/md0: new-system ~ # /usr/share/mdadm/mkconf | grep ARRAY ARRAY /dev/md/0 metadata=1.2 UUID=a0021927:0e4f10bf:2c47dc72:ca0b352e name=unassigned:0 这可能会对希望/dev/md0在那里的用户产生刺激,但是显然可以正常工作,因为服务器可以正常启动。 在/proc/mdstat设备中仍称为/dev/md0: new-system ~ # cat /proc/mdstat Personalities : [raid1] md0 : active raid1 sdb2[2] sda2[0] 1953381184 blocks super 1.2 [2/2] [UU] unused devices: <none> ls显示这/dev/md/0是与以下内容的符号链接/dev/md0: new-system ~ # ls -l /dev/md/0 lrwxrwxrwx 1 root root 6 …
19 debian  mdadm  md 

1
新的md数组是自动只读的,并且具有resync = PENDING
我用以下命令创建了一个新的md数组: mdadm --create /dev/md1 -l 1 -n 2 /dev/sd[ed]1 但是现在/proc/mdstat将数组显示为“自动只读”,并带有resync = PENDING: ~ # cat /proc/mdstat Personalities : [raid1] md1 : active (auto-read-only) raid1 sde1[1] sdd1[0] 976630336 blocks super 1.2 [2/2] [UU] resync=PENDING md0 : active raid1 sdb1[0] sdc1[1] 1953511936 blocks [2/2] [UU] unused devices: <none> 根据此网站,我可以通过以下方法解决此问题: mdadm --readwrite /dev/md1 …
17 raid  mdadm 

5
使用mdadm进行位腐检测和校正
我将在我的家用linux盒nas中重新组织所有硬盘,并希望使用mdadm raid进行数据保护并灵活地调整阵列的形状。但是,在使用mdadm之前,我想知道它如何处理bit rot。特别是不会导致HDD发送不可恢复的读取错误消息的位腐烂。 鉴于我可能会在nas的8个磁盘中使用至少21TB的HDD,以及有关HDD 发生故障的可能性的各种报价,我想在从单个磁盘故障进行重建的过程中,我很可能会遇到其余磁盘上出现某种形式的位腐。如果在其中一个驱动器上发生了不可恢复的读取错误,则该驱动器实际上将其报告为错误,我相信使用raid6(是吗?)应该没问题。但是,如果从磁盘读取的数据是错误的,但是磁盘没有报告这种情况,那么即使使用raid6,我也看不到如何自动纠正它。这是我们需要关注的事情吗?鉴于文章是2010年,RAID5仍然有效以及我自己在家庭和工作中取得的成功经验,事情并不一定像流行语和行销所要让我们相信的那样悲惨和沮丧,但是我讨厌因为HDD失败而不得不从备份中恢复。 假设使用模式是,最多写入几次,偶尔读取一次,那么我将需要执行数据清理。我在archlinux Wiki上看到 了mdadm命令,用于将数据清理数组为 echo check > /sys/block/md0/md/sync_action 然后监控进度 cat /proc/mdstat 在我看来,它将读取所有磁盘的所有扇区,并检查数据是否与奇偶校验匹配,反之亦然。尽管我注意到文档中非常强调说在很多情况下,“检查”操作将无法自动更正,只能进行检测,而这将由用户自行解决。 我应该选择哪种mdadm RAID级别以最大程度地保护自己免受比特腐烂的侵害,我应该执行哪些维护和其他保护步骤?而这将不能保护我免受什么侵害? 编辑:我不打算开始RAID vs ZFS或任何其他技术QA。我想特别了解mdadm突袭。这也是为什么我在Unix&Linux而不是在SuperUser上询问的原因。 编辑:答案是: mdadm仅能纠正磁盘系统在数据清理期间报告的URE,并在清理期间检测到静默位腐烂,但无法/无法解决?
17 raid  mdadm 

3
mdadm:无法删除RAID 1中的组件
我使用mdadm将我的/ boot分区放置在RAID 1阵列中。该阵列在过去已经退化了几次,每次我删除物理驱动器时,添加一个新的驱动器,使该阵列恢复正常,它将使用新的驱动器号。将旧的遗留在阵列中并失败了。我似乎无法删除所有不再存在的组件。 [root@xxx ~]# cat /proc/mdstat Personalities : [raid1] md0 : active raid1 sdg1[10] sde1[8](F) sdb1[7](F) sdd1[6](F) sda1[4] sdc1[5] 358336 blocks super 1.0 [4/3] [UUU_] 这是我尝试删除不存在的驱动器和分区的方法。例如,/dev/sdb1。 [root@xxx ~]# mdadm /dev/md0 -r /dev/sdb1 mdadm: Cannot find /dev/sdb1: No such file or directory [root@xxx ~]# mdadm /dev/md0 -r faulty mdadm: Cannot …

1
mdadm raid1和4k驱动器上的块大小(或块大小)是多少?
我想在mdadm raid1设置中使用两个3 TB驱动器(使用Debian Sequeeze)。 这些驱动器使用4k硬件扇区,而不是传统的512字节扇区。 我有点困惑,因为一方面内核报告: $ cat /sys/block/sdb/queue/hw_sector_size 512 但另一方面,fdisk报告: # fdisk -l /dev/sdb Disk /dev/sdb: 3000.6 GB, 3000592982016 bytes 255 heads, 63 sectors/track, 364801 cylinders Units = cylinders of 16065 * 512 = 8225280 bytes Sector size (logical/physical): 512 bytes / 4096 bytes I/O size (minimum/optimal): 4096 bytes …

3
是什么使rsync的一侧如此繁忙?
我的局域网上有一台Debian机器,作为其他机器的备份服务器。它在LVM和btrfs上将四个HDD组合成一个软件RAID 5 md设备。备份是使用rsync进行的,大型文件系统需要一个多小时。很长时间以来,我一直认为我对此无能为力。 但是,最近,我注意到硬盘的活动在传输的两端都非常不同。尽管运行Gentoo并主要使用ext4的发送方几乎没有任何磁盘IO,但是接收方一直很忙。由于大多数数据在两次传输之间不会改变,因此我认为元数据读取应构成大部分数据。但是,如果在btrfs中读取inode而不是在ext4中进行如此大的工作,我会感到非常惊讶。 iotop 经确认,接收方的磁盘读取速度约为1-4 MB / s,而发送方偶尔只有0.5 MB / s的突发速度。 我的问题是,谁能解释这是怎么回事?最好带有一些指示,如果可能的话,如何解决该问题。 也许有一些我可以使用的btrfs调整标志,或者类似的东西。我需要备份服务器上具有快照功能的FS,而我尝试使用FreeBSD和ZFS会很快导致FS不一致,因此目前我看不到btrfs的替代方案。因此,告诉我使用ext4或zfs的答案可能会收到投票,但没有复选标记。 根据cjm的要求,正在使用Rsync选项: --rsync-path='rsync --fake-super' --archive # -rlptgoD --hard-links # detect and preserve these --acls --xattrs --sparse --noatime # based on patch from samba #7249c1 --delete --delete-delay --fuzzy --human-readable # size suffixes, base 1000 --stats 以及一堆-f删除某些文件的规则。 btrfs的安装选项报告mount为 rw,nosuid,noexec,noatime,nospace_cache …
11 performance  rsync  io  mdadm  btrfs 

3
使用mdadm --examine编写mdadm.conf
我正在尝试为越来越多的相同服务器编写RAID设置脚本。我看到的使用mdadm的建议建议,一旦创建RAID阵列,您就可以运行,mdadm --examine --scan >> /etc/mdadm.conf以便在启动时初始化该阵列。但是,这似乎并没有为我工作-特别是阵列是作为/dev/md/<hostname>:pool,其中mdadm --examine输出/dev/md/pool。 难道我做错了什么?我的mdadm版本有些奇怪吗? [root@positron /]# mdadm --create /dev/md0 --level=0 --name=pool --raid-devices=6 /dev/sda /dev/sdb /dev/sdc /dev/sdd /dev/sde /dev/sdf [root@positron /]# mdadm --examine --scan ARRAY /dev/md/pool metadata=1.2 UUID=567da122:fb8e445e:55b853e0:81bd0a3e name=positron:pool [root@positron /]# ls /dev/md/* /dev/md/md-device-map /dev/md/positron:pool [root@positron /]# cat /dev/md/md-device-map md127 1.2 22a17d56:5e448efb:e053b855:3e0abd81 /dev/md/positron:pool [root@positron /]# mdadm --version mdadm …
11 rhel  raid  mdadm 

1
mdstat中位图的含义是什么
不久前,我mdadm用RAID6中的4个驱动器创建了新的软件RAID阵列()。似乎工作正常。mdstat如下: Personalities : [raid6] [raid5] [raid4] md0 : active raid6 sda1[0] sde1[3] sdd1[2] sdb1[1] 1953260544 blocks super 1.2 level 6, 512k chunk, algorithm 2 [4/4] [UUUU] bitmap: 0/8 pages [0KB], 65536KB chunk unused devices: <none> 困扰我的是那bitmap: 0/8 pages部分,我不理解。 问题是:这是否是潜在的问题?并且请详细说明一下位图的实际含义。 该数组的完整细节如下: /dev/md0: Version : 1.2 Creation Time : Tue Nov 1 …

3
RAID是否自动重新同步?
我宁愿随机检查RAID阵列的状态,cat/proc/mdstat并意识到我的一个阵列似乎正在重新同步: md1 : active raid1 sdb7[1] sdc7[0] 238340224 blocks [2/2] [UU] [==========>..........] resync = 52.2% (124602368/238340224) finish=75.0min speed=25258K/sec 为什么会这样,这意味着什么?我似乎可以通过权限访问安装点r/w。 编辑1(响应SLM的答案) 如果我grep通过dmesg,并且--detail开关也没有告诉我太多信息,那么我什么也看不见,即它显示重新同步正在进行中……但是没有任何提示说明其原因或原因可能是它不同步。 。-我想在开始换出硬件之前,我可能只需要关注一下。

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.