Questions tagged «software-raid»

操作系统处理的RAID解决方案。

3
解释md的raid10,f2
我知道各种RAID的大部分工作方式。但是我 在研究linux软件raid时偶然发现了推荐的raid10,f2模式。我不太了解它如何在2或3个磁盘上工作。有人可以向我解释吗?还是让我指向一篇很好的文章来解释它?

1
KVM guest虚拟机io比host io慢很多:这正常吗?
我在CentOS 6.3上安装了Qemu-KVM主机系统。四个在软件RAID10中工作的1TB SATA硬盘。Guest CentOS 6.3安装在单独的LVM上。人们说他们看到宾客的表现几乎等于主持人的表现,但我没有看到。我的I / O测试显示,来宾系统的性能比主机系统慢30-70%。我试图更改调度程序(elevator=deadline在主机和elevator=noop客户机上设置),blkio.weight在cgroup 中将其设置为1000,将io更改为virtio ...但是这些更改都没有给我带来任何显着的结果。这是一个guest .xml配置部分: <disk type='file' device='disk'> <driver name='qemu' type='raw'/> <source file='/dev/vgkvmnode/lv2'/> <target dev='vda' bus='virtio'/> <address type='pci' domain='0x0000' bus='0x00' slot='0x05' function='0x0'/> </disk> 有我的测试: 主机系统: 碘测试 # iozone -a -i0 -i1 -i2 -s8G -r64k random random KB reclen write rewrite read reread read write 8388608 …

1
易于使用XFS扩展Linux软件RAID 5。最佳做法?
我将Ubuntu计算机用作使用Samba共享的Windows / Linux / Mac客户端的文件服务器。我需要通过添加更多硬盘来轻松扩展,而不必来回移动任何数据。 到目前为止,这就是我所做的。我已经成功添加了第四个硬盘。现在,很高兴知道这应该怎么做?我做错了还是可以做得更好? 创建初始的3驱动器阵列 我从三个空驱动器开始:/ dev / sdb,/ dev / sdc和/ dev / sdd。 首先,我为所有驱动器创建了空分区: $ fdisk /dev/sdX n # Create a new partition p # Primary 1 # First partition [enter] # Starting point to first sector (default) [enter] # Ending point to last sector (default) …


3
在KVM / libvirt主机和来宾之间共享LVM卷组:这是一个坏主意吗?
我刚刚构建了一个新的基于KVM / libvirt的闪亮虚拟机主机,其中包含4个SATA II硬盘驱动器,并运行CentOS 5.5 x86_64。 我决定将虚拟机磁盘创建为作为libvirt存储池管理的LVM卷组中的逻辑卷,而不是通常将磁盘创建为qcow映像的做法。 我无法确定是在VM主机的卷组中还是在专用卷组中创建虚拟机逻辑卷。 我应该选择哪种方法,为什么? 方法1:使用VM主机的卷组 实现方式: md0包含/boot文件系统的小型RAID1 大RAID10 md1占用剩余空间,其中包含LVM卷组vghost。vghost包含VM主机的根文件系统和交换分区 vghost根据需要在逻辑卷中创建虚拟机磁盘 优点: 如果VM主机的根文件系统空间不足,我可以vghost相对轻松地分配更多空间 系统已经启动并且正在运行(但是重新开始没什么大不了的) 缺点: 尽管这种方法似乎行之有效,但我不能不觉得这是一个坏主意。我觉得: 这可能会带来安全风险 在将来的某个时候,我可能会对设置有所限制,并希望我使用一个专门的小组 系统(CentOS,libvirt等)可能并非真正设计为像这样使用,因此在某些时候,我可能会偶然损坏/丢失VM主机的文件和/或文件系统 方法2:使用专用的卷组 实现方式: 同样的md0,并md1在方法1,除了化妆md1只是大到足以容纳VM主机(如5至10GB) 大RAID10 md2占用剩余空间。md2包含一个LVM卷组vgvms,其逻辑卷将由虚拟机专用 优点: 我可以修补而vgvms不必担心破坏主机操作系统 这似乎是一个更优雅,更安全的解决方案 缺点: 如果VM主机的文件系统空间不足,则必须将其文件系统的某些部分(例如/ usr或/ var)移动到上vgvms,这看起来不太好。 我必须重新安装主机操作系统(如前所述,我并不介意这样做) 更新#1: 我担心方法2中的VM主机磁盘空间不足的原因之一是因为我不知道VM主机是否足够强大,无法在虚拟机中运行所有服务。我可能必须将部分/全部服务从虚拟机迁移到主机OS。 VM主机硬件规格: Phenom II 955 X4黑色版处理器(3.2GHz,4核CPU) 2x4GB金士顿PC3-10600 DDR3 RAM 技嘉GA-880GM-USB3主板 4个WD Caviar RE3 …

5
您如何在Windows中监视镜像磁盘的运行状况?
我的Windows 2003 Server上有一个镜像动态磁盘。您如何监视该卷的运行状况? 卷有问题时,是否可以让服务器发送电子邮件?有没有办法让服务器运行SMART测试? 编辑: WTF就像登录客户端服务器,运行DISKPART LIST VOLUME并看到它一样。 Volume ### Ltr Label Fs Type Size Status Info ---------- --- ----------- ----- ---------- ------- --------- -------- Volume 0 X xDrive NTFS Mirror 233 GB Failed Rd Volume 1 C NTFS Simple 57 GB Healthy System Volume 2 D DVD-ROM 0 B …

11
RAID5是否比RAID1更强大
我将用Linux软件RAID1阵列替换旧的硬件RAID5阵列。我在和一个朋友聊天,他声称RAID5比RAID1更强大。 他声称,使用RAID5时,读取奇偶校验数据是为了确保所有驱动器都返回正确的数据。他进一步声称,在RAID1上,驱动器上发生的错误将不会被注意到,因为对RAID1不会进行任何此类检查。 我可以看到这可能是真的,但也可以看到,这一切都取决于如何有问题的RAID系统中实现。当然一个RAID5系统不具备阅读和检查读取和RAID1系统奇偶校验数据可以很容易地从读取所有驱动器读取检查他们都持有相同的数据,因此实现稳健的同一水平(造成相应的性能损失)。 所以问题是,现实世界中的RAID5 / RAID1系统实际上会做什么?RAID5系统是否检查读取的奇偶校验数据?是否有RAID1系统可以读取所有驱动器并比较读取的数据?

2
高服务器负载-使用99.99%IO的[jbd2 / md1-8]
上周,我的负载一直在上升。这通常每天发生一次或两次。我已经设法从iotop确定[jbd2 / md1-8]正在使用99.99%的IO。在高负载时间期间,服务器没有高流量。 服务器规格为: AMD Opteron 8核心 16 GB RAM 2x2.000 GB 7.200 RPM硬盘软件团队1 Cloudlinux + Cpanel mysql已正确调整 除了尖峰,负载通常最多为0.80左右。 我到处搜索,但找不到[jbd2 / md1-8]的确切功能。有没有人遇到这个问题或有人知道可能的解决方案? 谢谢。 更新: TIME TID PRIO USER DISK READ DISK WRITE SWAPIN IO COMMAND 16:05:36 399 be/3 root 0.00 B/s 38.76 K/s 0.00 % 99.99 % [jbd2/md1-8]

2
如何在驱动器处于“ E”状态的Synology NAS上恢复mdadm阵列?
Synology具有md驱动程序和mdadm工具集的自定义版本,可在内核的rdev-> flags结构中添加“ DriveError”标志。 实际影响-如果您很不幸导致阵列故障(第一个驱动器),再加上第二个驱动器上的错误-阵列将进入一种状态,即使从驱动器上读取数据,该阵列也无法修复/重建阵列精细。 在这一点上,从THIS数组的角度来看,我并不真正担心这个问题,因为我已经撤消了内容并打算进行重构,但更多的是希望将来有一个解决之道。 ,因为这是我第二次受到它的困扰,而且我知道我已经看到其他人在论坛上问类似的问题。 对Synology的支持并没有多大用处(并且大多是无响应的),并且不会共享任何有关处理包装盒上突袭的信息。 / proc / mdstat的内容: ds1512-ent> cat /proc/mdstat Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] md2 : active raid5 sdb5[1] sda5[5](S) sde5[4](E) sdd5[3] sdc5[2] 11702126592 blocks super 1.2 level 5, 64k chunk, algorithm 2 [5/4] [_UUUE] md1 : active raid1 sdb2[1] sdd2[3] …

3
将Linux软件Raid从raid5转换为raid6
我目前在RAID5阵列中具有3个1.5TB磁盘的文件服务器。由于它已经快满了,所以我又获得了三个额外的磁盘(每个磁盘也有1.5TB)。 现在,我想切换到RAID6,因为6TB的空间已足够,我想提高raid6的安全性。虽然我确实有完整的备份-即我可以简单地创建一个新阵列并还原备份-但我更愿意切换而不必还原备份。这可能吗?如果可以,怎么办?

5
RAID阵列降级时引导Debian
最近,我遇到了Ubuntu Server安装问题。在安装过程中,它询问我是否允许从降级的RAID阵列引导系统(可能是因为我已将系统安装到RAID1 / dev / md0设备上)。这对于无人值守的服务器刚刚强大,有用的选项有联机,不管是不是自己的RAID阵列降级(只要它没有完全失败)。 快速查找之后,我发现它可以通过读取/etc/initramfs-tools/conf.d/mdadm配置文件(BOOT_DEGRADED = true选项)或读取内核启动行参数(bootdegraded = true)来工作。 问题:是否有类似的东西(一种使用降级阵列引导系统的方法)对Debian有用?我不确定该确切方法是否适用,甚至不确定是否具有此特定功能。 我之所以这样问是因为我曾经在某些系统中使用RAID5阵列,并且在不正确的关机后无法启动,直到我手动“修复”了该阵列(事实证明这是主要的PITA),因为服务器无人值守在远程位置时,没有UPS,并且确实发生了电源故障。所以,我要问的是我将来可以避免这种问题。

3
为什么通过10G以太网,open-iscsi的写入速度比Samba慢两倍?
在我的本地文件服务器上,我在7个HDD驱动器上具有raid-6。 dd if=/dev/zero of=tempfile bs=1M count=2048 conv=fdatasync 本地速度测试为我提供了349 MB / s的写入速度。 从SSD到Samba的远程写入(读取速度> 2Gb / s)为我提供259 MB / s的写入速度。但是对iSCSI驱动器的远程写入(在Win10 iSCSI启动器上)仅给我151 Mb / s的写入。 raid6 config-128K块大小,stripe_cache_size =8191。写意图位图位于SSD(三星860 PRO,4096K位图块)上。 阵列安装有选件: rw,noatime,nobarrier,commit=999,stripe=128,data=writeback open-iscsi设置:目标基于4TB文件。 有什么暗示为什么iSCSI在写时比Samba慢?关于如何提高iSCSI写入速度的任何提示? 我认为这与open-iscsi希望在每次操作后刷新对磁盘的写入有关,由于过多的奇偶校验重写,这增加了raid6上的写入放大。但是我不确定如何解决它。断电时,速度比当前写入数据的安全性更为重要。 附带说明,较早的ietd iSCSI目标具有启用回写模式(使用IOMode=wb)的能力, 并且持续的写入速度要快得多。不幸的是,它目前似乎无法维护。

4
为什么RAID 10设备需要初始化?
当创建一个Linux软件RAID设备作为raid10设备时,我很困惑为什么必须对其进行初始化。确实,同样的问题适用于raid1或raid0。 最终,大多数人会在其之上放置某种文件系统,并且该文件系统不应假定磁盘数据处于任何状态。每次写入都会影响在其中写入了N个镜像的raid10或raid1设置中的两个磁盘。最初没有任何理由可以初始化raid10,因为它会随着时间的流逝而发生。 我可以理解为什么要对raid5 / 6设置有奇偶校验的要求,但是即使如此,这似乎也可能是懒惰的。 只是让人们对此感到更好吗?


2
如何将现有RAID1附加到新的Linux系统?
我有一个RAID1当前在单个硬盘驱动器上运行(是的,没有镜像)。是否可以使用以下算法重新组织系统? 我设置了另一个单磁盘RAID1(位于相同类型的另一个HDD上),对其进行分区并在其上安装Debian的新实例。 我安装了旧的单磁盘RAID1设置,并将所有数据从其中复制到新的RAID。 然后,我重新格式化旧磁盘,并将其包含在新的RAID设置中。 我主要怀疑第二点-我应该怎么做?

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.