Questions tagged «mdadm»

用于管理Linux软件RAID设备的实用程序

1
我没有RAID,但收到警告mdadm.conf定义没有数组
我安装了16.04 Server,initramfs通过正常的软件包升级来升级软件包时,我的日志中也有类似的消息。 ... Setting up initramfs-tools (0.122ubuntu8.3) ... update-initramfs: deferring update (trigger activated) Processing triggers for initramfs-tools (0.122ubuntu8.3) ... update-initramfs: Generating /boot/initrd.img-4.4.0-38-generic W: mdadm: /etc/mdadm/mdadm.conf defines no arrays. 这是正常现象吗,还是Ubuntu由于某个地方的配置错误而期望找到RAID? 以下是内容/etc/mdadm/mdadm.conf: # mdadm.conf # # Please refer to mdadm.conf(5) for information about this file. # # by default (built-in), scan all …
48 server  16.04  mdadm 

4
为什么我的RAID / dev / md1显示为/ dev / md126?mdadm.conf是否被忽略?
我创建了一个RAID: sudo mdadm --create --verbose /dev/md1 --level=mirror --raid-devices=2 /dev/sdb1 /dev/sdc1 sudo mdadm --create --verbose /dev/md2 --level=mirror --raid-devices=2 /dev/sdb2 /dev/sdc2 sudo mdadm --detail --scan 返回: ARRAY /dev/md1 metadata=1.2 name=ion:1 UUID=aa1f85b0:a2391657:cfd38029:772c560e ARRAY /dev/md2 metadata=1.2 name=ion:2 UUID=528e5385:e61eaa4c:1db2dba7:44b556fb 我将其附加到/etc/mdadm/mdadm.conf,如下所示: # mdadm.conf # # Please refer to mdadm.conf(5) for information about this file. # # …
26 mdadm 

6
如何重命名mdadm RAID阵列?
出于某种原因,当我尝试将mdadm raid数组重命名为文本名称时,所做的更改不会生效。 我尝试了这个serverfault问题的建议,但无济于事。 ~$ mdadm --version mdadm - v3.1.4 - 31st August 2010 ~$ sudo mdadm --detail /dev/md0 /dev/md0: Version : 1.2 Creation Time : Tue Sep 27 08:32:32 2011 Raid Level : raid1 Array Size : 1953513424 (1863.02 GiB 2000.40 GB) Used Dev Size : 1953513424 (1863.02 GiB 2000.40 …
23 server  raid  devices  mdadm 

4
如何正确对齐分区表?
我正在构建我的第一个RAID5阵列。我已经使用mdadm创建了以下设置: root@bondigas:~# mdadm --detail /dev/md1 /dev/md1: Version : 00.90 Creation Time : Wed Oct 20 20:00:41 2010 Raid Level : raid5 Array Size : 5860543488 (5589.05 GiB 6001.20 GB) Used Dev Size : 1953514496 (1863.02 GiB 2000.40 GB) Raid Devices : 4 Total Devices : 4 Preferred Minor : 1 …


2
RAID(mdadm)-如果驱动器大小不匹配会怎样?
问题1-在回答“它只占用较小的磁盘”之前,请快速听我说。我的3TB WD Reds的大小为3001 GB。假设我通过mdadm为sdb1和sdc1设置了一个镜像,该镜像跨越了100%的驱动器。但是突然,其中一个驱动器发生故障。替换为3TB,重为3000 GB。当我放入的驱动器比阵列上当前存在的驱动器小时,会发生什么情况?我知道使用3000 vs 3001的新阵列会把阵列构建为3000。但是就像我说的,当前阵列@ 3001会如何,我添加一个较小的驱动器?是否在重建过程中将自身重新构造为3000 GB? 问题2-如果无法将3000 GB的数据添加到现有3001 GB的阵列中,并且大小只能缩小到3000,我可以将3001的尺寸缩小一点吗? 问题3-还是一个更好的主意。如果我将3TB驱动器减小到2999 GB,该怎么办。这样,驱动器是否短缺1 MB,1字节,10 KB都没有关系,它将始终使用2999 GB的“较小”驱动器。
15 raid  mdadm 

8
使stripe_cache_size永久
我做了 echo 8192 > /sys/block/md0/md/stripe_cache_size 改善了我的RAID性能,确实起到了很大的作用。 但是我仍然不知道如何使它永久化。 我试图在/etc/rc.local中设置它-执行了其他命令,但是它在其他地方被覆盖为256 ...有任何提示吗?
15 server  mdadm 

4
如何在16.04LTS中启用降级的RAID1引导?
在以前的ubuntu版本中,添加BOOT_DEGRADED=true了/etc/initramfs-tools/conf.d/mdadm允许系统在根文件系统位于降级阵列上时自动启动。在16.04 LTS中似乎不再起作用。 该文档(https://help.ubuntu.com/lts/serverguide/advanced-installation.html)似乎已经过时;sudo dpkg-reconfigure mdadm不再要求允许降级的启动,并且bootdegraded=true内核参数也似乎不再起作用。当根文件系统阵列降级时,系统始终启动到initramfs中。从那里开始,mdadm -IRs允许系统启动。 当根文件系统位于16.04LTS中降级的RAID1阵列上时,如何启用自动引导?
14 boot  raid  mdadm 

1
如何通过Live CD访问MD RAID?
我们目前正在尝试使用最新的Ubuntu Live CD在运行HP Ml110 G5 SATA RAID控制器的服务器上运行访问数据。我们需要删除一些文件,以使服务器启动进入Windows,但无法挂载分区。 我们可以通过磁盘管理程序看到单个磁盘,但无法挂载分区,有人对它有任何建议吗?
14 10.10  mount  raid  mdadm 

1
软件团队-MDADM-重新找到我的阵列
描述 今天,我插入了另一个硬盘驱动器,并拔出了RAID驱动器,以确保在擦除驱动器时不会意外选错驱动器。 现在,我已重新插入驱动器,不再安装/识别/找到软件raid 1阵列。使用磁盘实用程序,我可以看到驱动器是/ dev / sda和/ dev / sdb,因此我尝试运行sudo mdadm -A /dev/sda /dev/sdb不幸的是,我不断收到一条错误消息,指出mdadm: device /dev/sda exists but is not an md array 规格: 作业系统:Ubuntu 12.04 LTS Desktop(64 bit) 驱动器:在第三个驱动器(64GB ssd)上安装了2个3TB WD Red(相同型号的全新)操作系统(许多Linux安装) 主板: P55 FTW 处理器:Intel i7-870 完整规格 的结果 sudo mdadm --assemble --scan mdadm: No arrays found in config …
14 12.04  raid  mdadm 

1
如何在RAID5中重新添加意外删除的硬盘
我在Ubuntu Server上有一个NAS,它的RAID 5中有4个2TB硬盘。几个星期前,其中一个硬盘坏了,但是我的RAID可以工作了,尽管性能下降了。幸运的是,它仍然处于保修期内,并向我发送了今天安装的新硬盘。但是,当尝试将新的硬盘驱动器添加到RAID时,它没有重建。因此,我拔下硬盘驱动器并重新启动了计算机。但是,我不小心将RAID中的其他OTHER硬盘之一设置为失败,并使用mdadm将其删除。 现在它说我的RAID有两个卸下的硬盘驱动器。我的第3硬盘驱动器上的所有数据仍然完好无损,但是我不知道如何将其重新添加回RAID阵列中,因此它又恢复了良好的状态(尽管已降级),因此我可以继续添加第四个硬盘驱动器并重建阵列。是否可以让Ubuntu意识到第3个硬盘驱动器拥有我的数据,并且又将其再次识别为阵列的一部分? 当我尝试运行时: sudo mdadm --manage /dev/md127 --re-add /dev/sdd1 它说: mdadm: --re-add for /dev/sdd1 to dev/md127 is not possible 请大家提供任何帮助,将不胜感激。
14 raid  mdadm  nas 

1
使用现有驱动器在14.04上设置RAID 1
我当前安装了Seagate ST3000DM001(大约占90%)和新的Seagate ST3000DM001(空白)。我想设置RAID 1而不丢失当前安装的驱动器上的数据。 如果我使用本教程中概述的mdadm流程:http : //www.mysolutions.it/tutorial-mdadm-software-raid-ubuntu-debian-systems/,是否可以保存我的数据?
14 hard-drive  raid  mdadm 

4
如何使用LVM在两个磁盘上创建一个逻辑卷?
你好 我有一个正在运行的Ubuntu 12.04服务器,它将用作媒体服务器。我添加了两个大小为3TB的磁盘来放置数据,我希望将它们组合为一个6TB的逻辑卷,可以将其安装在下/media。 到目前为止,我已经在每个磁盘上创建了一个分区,fdisk并将其格式化为ext3。但是现在,我仍然坚持如何继续。我是否使用Mdadm创建Jbod数组?还是使用LVM制作这两个磁盘的逻辑卷?我似乎找不到所需的文档,这主要是关于扩展现有卷或安装不需要的新系统。 我的操作系统处于打开状态/dev/sdc1(这是USB拇指驱动器),两个新创建的分区位于/dev/sda1和/dev/sdb1。 希望你能给我一些指导。

2
X分钟后使用hdparm将硬盘置于待机状态不起作用
我在家庭服务器上使用Ubuntu 12.04。有5个硬盘驱动器:一个带有OS的SSD和四个使用mdadm配置为RAID5的HDD(Samsung HD204UI)。 我不需要非常频繁的RAID(例如,平均每天大约一次)。它包含多媒体数据和一些备份,因此我决定大部分时间将驱动器置于待机状态。 我将驱动器配置为使用hdparm在20分钟后自动降速,/dev/sda例如: hdparm -S 240 /dev/sda 命令的输出确认了这一点: /dev/sdb: setting standby to 240 (20 minutes) 但是问题在于驱动器在最后一次访问后大约5秒钟(而不是20分钟)后旋转下来,并且 hdparm -C /dev/sdb 显示: /dev/sdb: drive state is: standby 驱动器为什么不按配置等待20分钟?它与RAID设置有关吗?(我不这么认为...) 这种非常短的超时是有问题的,因为它是RAID5,当我访问文件时,它以块为单位分布在四个驱动器上。由于读取驱动器2时不需要驱动器1,因此下次使用它时(在读取驱动器3之后)它将进入睡眠状态。因此,驱动器始终保持上下旋转,从而导致吞吐量接近零。 对于关心驱动器寿命的人们:平均每天旋转一次驱动器是没有问题的,因为与驱动器的运行状况相比,我更喜欢节省能源和热量(我使用RAID5,并且存储内容不是不是很重要)。

4
EFI系统分区可以被RAID吗?
我正在将UEFI和RAID与GPT磁盘一起使用Ubuntu 64位设置HTPC。 是否可以使用以下命令将EFI系统分区(分区类型0xEF00)作为RAID1阵列的一部分mdadm?我希望元数据版本1.0(位于磁盘末尾)将允许这样做。 此外,还应该设置“用于引导加载程序安装的设备”是什么,或者这仅适用于MBR磁盘?

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.