Questions tagged «mdadm»

用于管理软件RAID设备的linux实用程序。

3
mdadm-从RAID0删除磁盘
因此,我想知道,可以使用mdadm执行以下操作: 我从2个磁盘上的RAID0配置开始:sda和sdb。 我想再添加一个磁盘到阵列,sdc并将所有数据sdb移到该磁盘。 断开连接sdb。 现在,我仅看到一个选项-我停止阵列,使用或其他任何块复制工具复制sdb到该阵列,然后重新启动阵列。sdcdd 我想念什么吗?mdadm是否可以执行此操作?
11 mdadm  raid0 

1
Linux; 什么是stripe_cache_size,它有什么作用?
我目前正在使用mdadm实用程序在Linux下构建软件RAID,并且阅读了几篇文章,描述了如何增加该RAID的stripe_cache_size值以及如何计算stripe_cache_size的适当值。 我已将我的速度提高到16384,并且我在/ proc / mdstat中新RAID5上的当前同步速率已从71065K / sec跃升至143690K / sec(翻了一番!),这是个好消息。我还看到了RAM使用量的匹配增长和预期增长,但是找不到有关此设置的作用及其工作原理的任何文档。 它似乎是存在于RAM中的RAID的某种高速缓存。我可以从它的名称以及更改它所看到的效果中看出所有。是否有关于此设置和描述的官方“ Linux”文档?
10 linux  cache  mdadm 

1
mdadm和4k扇区(高级格式)
关于对齐4k扇区磁盘,Serverfault上有很多问题,但是我还不清楚。 我已成功对齐RAID1 + LVM。我做的一件事是使用mdadm超级块版本1.0(将超级块存储在磁盘的末尾)。 联机帮助页上说: 不同的子版本将超级块存储在设备上的不同位置,无论是在末尾(对于1.0),在开始(对于1.1)还是从开始4K(对于1.2)。“ 1”等于“ 1.0”。“默认”等效于“ 1.2”。 是默认版本1.2版本用于4k扇区驱动器吗?我的观察方式不是这样,因为从头开始的4k +超级块的长度不是4k的数目(如果我没记错的话,超级块大约200字节长)。 欢迎对此有任何见识。 编辑: 下面的答案是mdadm超级块1.1和1.2用于4k对齐。我刚刚使用以下方法创建了整个设备团队: mdadm --create /dev/md4 -l 1 -n 2 /dev/sdb /dev/sdd 然后我添加了一个逻辑卷: vgcreate universe2 /dev/md4 阵列以16 MB / s的速度同步: md4 : active raid1 sdd[1] sdb[0] 1465137424 blocks super 1.2 [2/2] [UU] [>....................] resync = 0.8% (13100352/1465137424) finish=1471.6min speed=16443K/sec …

3
为什么通过10G以太网,open-iscsi的写入速度比Samba慢两倍?
在我的本地文件服务器上,我在7个HDD驱动器上具有raid-6。 dd if=/dev/zero of=tempfile bs=1M count=2048 conv=fdatasync 本地速度测试为我提供了349 MB / s的写入速度。 从SSD到Samba的远程写入(读取速度> 2Gb / s)为我提供259 MB / s的写入速度。但是对iSCSI驱动器的远程写入(在Win10 iSCSI启动器上)仅给我151 Mb / s的写入。 raid6 config-128K块大小,stripe_cache_size =8191。写意图位图位于SSD(三星860 PRO,4096K位图块)上。 阵列安装有选件: rw,noatime,nobarrier,commit=999,stripe=128,data=writeback open-iscsi设置:目标基于4TB文件。 有什么暗示为什么iSCSI在写时比Samba慢?关于如何提高iSCSI写入速度的任何提示? 我认为这与open-iscsi希望在每次操作后刷新对磁盘的写入有关,由于过多的奇偶校验重写,这增加了raid6上的写入放大。但是我不确定如何解决它。断电时,速度比当前写入数据的安全性更为重要。 附带说明,较早的ietd iSCSI目标具有启用回写模式(使用IOMode=wb)的能力, 并且持续的写入速度要快得多。不幸的是,它目前似乎无法维护。

1
Ubuntu服务器,gpt分区表,mdadm,grub引导失败
基本工作系统详细信息: 我使用Ubuntu 12.04服务器CD安装服务器。 我有4个磁盘。在所有磁盘上,我执行了以下操作,类似于此howto: 创建了一个2GB的交换分区 创建了一个256 GB / boot分区 创建了一个64 GB RAID10分区(用于root用户) 创建了一个RAID10分区并占用了其余空间 我将引导格式化为ext3。我在根分区和大分区上设置了RAID10。我格式化了根ext4。我在大卷上创建了一个逻辑卷,并将其格式化为ext4。 生成的系统可以正常运行,并且可以正常启动。 问题详细信息: 然后,我决定记录一个失败程序。第一步,我决定重新安装grub。 # grub-install /dev/sda warn: This GPT partition label has no BIOS Boot Partition; embedding won't be possible!. error: Embedding is not possible. GRUB can only be installed in this setup by using blocklists. …
9 ubuntu  raid  mdadm  grub2  gpt 


1
如何对RAID阵列进行故障排除?
我今天早上刚检查了RAID阵列,得到的是: $ cat /proc/mdstat Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10] md1 : active raid1 sdc7[0] 238340224 blocks [2/1] [U_] md0 : active raid1 sdc6[0] 244139648 blocks [2/1] [U_] md127 : active raid1 sdc3[0] 390628416 blocks [2/1] [U_] unused devices: <none> $ 我相信这意味着我的阵列中的一个磁盘已死,这是真的吗? 我该如何进行正确的故障排除?我的/etc/mdadm/mdadm.conf样子是: $ cat /etc/mdadm/mdadm.conf …
8 raid  mdadm 

4
apt-get update mdadm可怕的警告
只需在我的一台专用服务器上运行apt-get更新,然后留下一个相对可怕的警告: Processing triggers for initramfs-tools ... update-initramfs: Generating /boot/initrd.img-2.6.26-2-686-bigmem W: mdadm: the array /dev/md/1 with UUID c622dd79:496607cf:c230666b:5103eba0 W: mdadm: is currently active, but it is not listed in mdadm.conf. if W: mdadm: it is needed for boot, then YOUR SYSTEM IS NOW UNBOOTABLE! W: mdadm: please inspect the output of …
8 debian  apt  mdadm  update 


2
1个驱动器发生故障后,Linux Software Raid 10挂起,mdadm不会让我强行删除故障设备
我有一个Linux软件raid 10设置,包括5个RAID 1(每个镜像设置两个驱动器)和所有5个RAID 1对中的RAID 0。为了测试所有驱动器在负载下均不会快速失效,我在RAID 0上使用了具有破坏性读/写模式的坏块。 Badblocks命令:badblocks -b 4096 -c 98304 -p 0 -w -s / dev / md13 其中一台设备发生了故障,并且没有坏块程序愉快地在其上挂起。如果我运行同步命令,这也会挂起。首先,我假设这不是RAID 1设备的标准行为。如果其中一个驱动器发生故障,它仍然应该能够正确写入两个驱动器组成的虚拟设备。 因此,我继续强制使驱动器发生故障,然后尝试将其删除。我可以毫无问题地将驱动器设置为故障(但是IO操作仍然挂起)。我无法从说忙的团队中完全删除该设备。我的假设是,如果我可以完全摆脱袭击,则IO将会继续,但这只是一个假设,我确实认为我正在处理各种错误。 到底是怎么回事?我是否由于错误而处于无法恢复的位置? 该系统运行的是内核2.6.18,因此并不是完全新的,但考虑到软件袭击已经存在了这么长时间,因此我认为不会发生此类事件。 非常感谢任何见解。 mdadm --detail / dev / md13 / dev / md13: Version : 00.90.03 Creation Time : Thu Jan 21 14:21:57 2010 Raid Level : raid0 …
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.