引导后,我的RAID1设备(/dev/md_d0
*)有时会处于一些有趣的状态,而我无法挂载它。
*最初是我创建的,/dev/md0
但是它某种程度上变成了/dev/md_d0
。
# mount /opt
mount: wrong fs type, bad option, bad superblock on /dev/md_d0,
missing codepage or helper program, or other error
(could this be the IDE device where you in fact use
ide-scsi so that sr0 or sda or so is needed?)
In some cases useful info is found in syslog - try
dmesg | tail or so
RAID设备似乎因某种原因处于非活动状态:
# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5]
[raid4] [raid10]
md_d0 : inactive sda4[0](S)
241095104 blocks
# mdadm --detail /dev/md_d0
mdadm: md device /dev/md_d0 does not appear to be active.
问题是,如何使设备再次处于活动状态(使用mdmadm
,我想)?
(其他时候,启动后一切正常(活动),我可以手动安装它而不会出现问题。但是即使我在/etc/fstab
以下位置,它也不会自动安装:
/dev/md_d0 /opt ext4 defaults 0 0
一个额外的问题是:如何使RAID设备/opt
在引导时自动挂载?)
这是Ubuntu 9.10工作站。有关此问题中我的RAID设置的背景信息。
编辑:我/etc/mdadm/mdadm.conf
看起来像这样。我从来没有动过这个文件,至少是用手。
# by default, scan all partitions (/proc/partitions) for MD superblocks.
# alternatively, specify devices to scan, using wildcards if desired.
DEVICE partitions
# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes
# automatically tag new arrays as belonging to the local system
HOMEHOST <system>
# instruct the monitoring daemon where to send mail alerts
MAILADDR <my mail address>
# definitions of existing MD arrays
# This file was auto-generated on Wed, 27 Jan 2010 17:14:36 +0200
重启后,至少在/proc/partitions
最后一次输入的时间是md_d0
该设备再次处于活动状态。(我不确定当它处于非活动状态时是否会相同。)
解决方法:正如吉米·赫德曼(Jimmy Hedman)所建议的,我的输出是mdadm --examine --scan
:
ARRAY /dev/md0 level=raid1 num-devices=2 UUID=de8fbd92[...]
并将其添加到中/etc/mdadm/mdadm.conf
,这似乎已经解决了主要问题。更改/etc/fstab
为/dev/md0
再次使用(而不是/dev/md_d0
)后,RAID设备也会自动挂载!
mdadm --examine --scan
生产ARRAY /dev/md0 level=raid1 num-devices=2 UUID=...
(注意MD0而不是md_d0!)我放进了问题:mdadm.conf文件(手动,因为是有些问题,使用sudo和>>
(拒绝“权限”),并须藤是必需的),并且还更新fstab中使用md0(不是md_d0)。现在,我似乎不再遇到“非活动”问题,并且 RAID设备在引导时会自动安装在/ opt上。那谢谢啦!