Questions tagged «raid»

RAID是RAID的首字母缩写,最初是廉价磁盘冗余阵列(今天通常称为独立磁盘冗余阵列)的一种技术,它通过使用各种算法将数据分布在多个磁盘上,从而通过冗余来提高存储性能和可靠性。级别)。RAID可以在硬件存储控制器或软件中实现,通常作为操作系统/内核功能。

2
如何将现有RAID1附加到新的Linux系统?
我有一个RAID1当前在单个硬盘驱动器上运行(是的,没有镜像)。是否可以使用以下算法重新组织系统? 我设置了另一个单磁盘RAID1(位于相同类型的另一个HDD上),对其进行分区并在其上安装Debian的新实例。 我安装了旧的单磁盘RAID1设置,并将所有数据从其中复制到新的RAID。 然后,我重新格式化旧磁盘,并将其包含在新的RAID设置中。 我主要怀疑第二点-我应该怎么做?

5
LVM镜像VS RAID1
在学习了有关LVM镜像的知识之后,我考虑过要替换当前使用的RAID-1方案以获得灵活性。 问题是,根据我在Internet上发现的信息,LVM是: 至少在读取时要比RAID-1慢(因为仅使用单个卷进行读取)。 对电源中断不可靠,并且需要禁用磁盘缓存以防止数据丢失。 http://www.joshbryan.com/blog/2008/01/02/lvm2-mirrors-vs-md-raid-1/ 而且,至少在我阅读的一些设置指南中,(http://www.tcpdump.com/kb/os/linux/lvm-mirroring/intro.html)似乎确实需要一个第三磁盘来存储LVM日志。这将使安装程序完全无法在2个磁盘安装中使用,并减少了在较大磁盘上使用的镜像磁盘的数量。 谁能评论以上事实,并让我知道他使用LVM镜像的经验? 谢谢。
9 linux  raid  lvm  mirroring 

5
内核:日记提交I / O错误
我在使用Dell 1950服务器时遇到了一些问题。我将在此处与Oracle和其他一些软件一起安装RHEL 4.6。 我在ssh会话和监视器上随机收到一条错误消息,内容为“内核:日记提交I / O错误”,我已连接到服务器,然后滚动查看错误消息,显示“ EXT3-fs错误(设备sda5)”在start_transaction中:日志已中止。” 它已经发生过几次,但从未在安装过程中的同一时间发生过。实际上,上一次系统启动并运行时,我只是试图将数据库导入到oracle中。 这已经发生在几个硬盘驱动器上,所以我很确定这不是问题。这使我认为RAI​​D控制器变坏了。 你们有什么感想? **更新** 可以肯定这是一个坏硬盘。我在服务器中扔了另一个驱动器,它已经运行了约48个小时,没有出现问题。
9 linux  raid  ext3 

5
带SSD缓存存储的Squid或其他HTTP缓存?
我正在考虑在具有SSD驱动器的系统上设置一个鱿鱼(或可能的清漆)缓存。 明显的好处是这些系统具有很高的读取速度,我希望我的命中率会很高。 假设我可以将7个SSD放入RAID配置。(有些情况会让我收拾更多东西) 实施问题: 我应该使用RAID0吗?(我预计驱动器最终会出现故障,因此这似乎很危险。) 我应该使用RAID10吗?(这使我的磁盘空间减少了一半,这是昂贵的。) 我应该使用RAID5吗?(众所周知,SSD具有“不良”的写入性能和写入限制,并且所有额外的奇偶校验写入都可能会大大降低此速度。) 我应该只将每个磁盘视为自己的鱿鱼数据存储区吗?(squid处理多个数据存储的性能如何?如果/当一个失败时会发生什么?) 我应该忽略数据存储,而只是将SSD放入大型SWAP分区中,然后让Linux VM做到这一点吗?(似乎草率) 在生产环境中使用SSD的人们的任何建议将不胜感激。(特别是如果您将它们用于HTTP缓存)
9 raid  http  squid  cache  ssd 

2
对于服务器中的磁盘群集进行RAID以外的调查,动态磁盘池是否具有可比性?[关闭]
关闭。这个问题是题外话。它当前不接受答案。 想改善这个问题吗? 更新问题,以使其成为服务器故障的主题。 去年关闭。 随着超融合系统的发展,我们可以看到RAID以外的其他技术来处理分布式存储(例如ceph或VSAN或nutanix中的分布式存储)。 但是是否有我可以在具有大量大磁盘的单个服务器上使用的源自对象存储的开源技术,比如说十几个12 SATA磁盘,这将确保数据安全,但是没有替换磁盘时重建时间长的缺点。磁盘。因此,动态磁盘池是一种非群集RAID的一种形式,可用于块级别(如iscsi)或文件系统级别(如zfs或brtrfs)。 我想提供与SYNOLOGY托架(NFS,iscsi目标,SMB)类似的功能,但没有RAID用于块存储。 感谢您的指示。

3
在Linux突袭5上mkfs操作花费很长时间
我已经设置了一个Linux软件突袭级别5,该级别由4 * 2 TB磁盘组成。创建的磁盘阵列的条带大小为64k,没有其他配置参数。初始重建后,我尝试创建一个文件系统,此步骤耗时很长(大约半小时或更长时间)。我尝试创建一个xfs和ext3文件系统,两者都花了很长时间,使用mkfs.ext3我观察到以下行为,这可能会有所帮助: 编写索引节点表的速度很快,直到达到1053(〜1秒),然后写入大约50,等待两秒钟,然后再写入下50(根据控制台显示) 当我尝试用Control + C取消操作时,它挂了半分钟才真正取消 单个磁盘的性能非常好,我已经分别在每个磁盘上运行bonnie ++,其读/写值约为95 / 110MB / s。即使当我在每个驱动器上并行运行bonnie ++时,其值也仅减少了约10 MB。因此,一般来说,我不将硬件/ I / O调度作为问题源。 我为stripe_cache_size和预读大小尝试了不同的配置参数,但没有成功,但是我认为它们与文件系统创建操作无关。 服务器详细信息: Linux服务器2.6.35-27-通用#48-Ubuntu SMP x86_64 GNU / Linux mdadm-v2.6.7.1 有没有人对如何进一步调试提出建议?

3
RAID 0或JBOD是否适合家庭媒体服务器?[关闭]
关闭。这个问题是题外话。它当前不接受答案。 想改善这个问题吗? 更新问题,使它成为服务器故障的主题。 6年前关闭。 我有一个外部两托架驱动器机箱(OWC Mercury Elite-AL Pro)通过FireWire 800连接到Mac Mini(我的家庭媒体服务器)。我正在通过有线千兆位将媒体流传输到房屋中的其他计算机。我有两个现在正在独立使用的1.5 TB驱动器。介质在一个上,我晚上将文件镜像到另一个驱动器上作为备份。但是,当我要填充驱动器时,我想将这两个驱动器放在一起,总共给我约3 TB,然后再购买另一个驱动器进行备份。外部机箱同时支持RAID 0和JBOD,但我不清楚在这种情况下哪种更好。 RAID 0是否会比JBOD的流视频(可能同时有多个流)性能有所提高? 它们各自如何影响驱动器的MTBF? 通常,我应该选择RAID 0,JBOD还是保持它们独立?

3
ceph是否可以将硬件RAID阵列(LUN)作为OSD驱动器处理?
我对ceph还是很陌生,请尝试找出ceph是否支持硬件级别的RAID HBA。 可悲的是找不到任何信息。我发现,建议对OSD使用普通磁盘。但这将要求推向了PCIe,磁盘的接口达到了高带宽,而CPU的要求也很高。硬件RAID控制器已经解决了这些要求,并且基于设置提供了高冗余度,而不会占用我的PCIe,CPU或任何其他资源。 因此,我希望的设置是拥有本地RAID控制器,无论我需要什么RAID级别,它都可以在控制器级别(RAID 5,RAID 6)处理磁盘冗余。除了我想使用ceph在哪些RAID LUN上进行更高级别的复制外:主机,机箱,机架,行,数据中心或CRUSH中可能或可计划的任何东西 该设置有任何经验吗? 是推荐的设置吗? 关于此硬件RAID集成的任何深入文档吗?


2
RAID如何处理不一致的数据?
RAID 1和RAID 5(及其兄弟10和50)分别通过镜像和奇偶校验实现数据冗余。这样,当磁盘(或整个磁盘)上的扇区变得不可读时,RAID阵列仍可以访问数据。RAID 6(或60)使用附加检查以允许出现双重故障。 但是,RAID阵列如何处理完全不可读但完全不一致的数据? 如果发生某些错误,从而使条带上的fe数据在磁盘上发生更改,但该更改未传播到其他磁盘,则整个条带将变得不一致。如果在一个镜像集中,一个磁盘说“此位为0”,而另一个磁盘说“此位为1”,那么RAID控制器如何知道哪个是正确的?可以将相同的推理应用于RAID-5条带,但是增加了复杂性,您不容易知道该条带中哪个扇区实际出错。另外,RAID 6是否具有双重优点来缓解该问题,或者当数据实际可读但在某些地方错了,尤其是RAID 6阵列往往有很多磁盘时,它仍然可能无法从数据损坏中恢复吗? 从理论上讲,这可以通过校验和解决,以确保数据(或奇偶校验)的哪个副本是正确的;但是,任何RAID控制器是否实际上实现了这种校验和(这当然会占用额外的空间)?还是需要在大多数文件系统可以并且将对它们的内容进行校验的操作系统级别上进行处理?如果是这种情况,那么当RAID控制器的一般方法是从底层存储层抽象出尽可能多的操作系统时,他们如何告诉RAID控制器“条带Z上磁盘Y的扇区X上的数据错误”。可能?

1
如何对RAID阵列进行故障排除?
我今天早上刚检查了RAID阵列,得到的是: $ cat /proc/mdstat Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10] md1 : active raid1 sdc7[0] 238340224 blocks [2/1] [U_] md0 : active raid1 sdc6[0] 244139648 blocks [2/1] [U_] md127 : active raid1 sdc3[0] 390628416 blocks [2/1] [U_] unused devices: <none> $ 我相信这意味着我的阵列中的一个磁盘已死,这是真的吗? 我该如何进行正确的故障排除?我的/etc/mdadm/mdadm.conf样子是: $ cat /etc/mdadm/mdadm.conf …
8 raid  mdadm 

4
如何为CentOS 6配置24 x 1.2 TB驱动器的RAID 5,尤其是条带大小?
对于具有24个1.2TB磁盘(和1TB RAM)的Dell R920,我希望为快速IO设置RAID 5配置。该服务器将用于托管KVM VM,该KVM VM将读取/写入各种大小的文件,包括非常大的文件。我对数据安全性并不特别感兴趣,因为如果服务器由于任何原因发生故障,我们将在更换发生故障的部件后从裸机重新配置服务器。 因此,性能是主要问题。 我们之所以考虑使用RAID 5,是因为它允许我们在多个主轴上分配数据,因此可以提供更好的性能,尽管不是我们的主要关注点,但是它也可以为我们提供一些数据保护。我们的NIC是双10Gbps。 我将这个问题限制为RAID 5仅是因为我们认为这将提供最佳性能。只有当有令人信服的性能原因时,我们才会考虑其他因素。但是,我想我更喜欢与RAID 5配置有关的答案。 好的,根据以上所述,这是我们当前的配置思想: 24个硬盘:RMCP3:1.2TB,10K,2.5“ 6Gbps RAID控制器:H730P,12Gbps SAS支持,2GB NV缓存 1个热备用(如果驱动器确实发生故障,只是为了给我们更长的使用寿命) 23个数据驱动器(其中1个作为奇偶校验,剩余22个用于数据) 条带大小:1MB(1MB / 22个数据驱动器=每个磁盘〜46.5KB,或者,我是否误解了条带大小)? 读取策略:自适应预读 写策略:写回 磁盘缓存策略:已启用 如果数据驱动器上的条带大小为TOTAL,那么我认为每个驱动器〜46.5KB将为我们提供非常好的吞吐量。如果条带大小是每个主轴的,那么我就错了。 条带大小是否也占用单个文件的大小?例如,如果有一个2KB的文件,那么选择1MB的条带大小是否意味着我们要浪费几乎整个兆字节?还是一个条带中可以存在多个文件? 最后,当我们安装CentOS 6.5(或最新版本)时,是否需要做一些特别的事情来确保文件系统最佳地使用RAID?例如,mkfs.ext4具有-E跨度选项,我被告知应对应于RAID配置。但是,在安装CentOS期间,有什么方法可以做到这一点? 非常感谢您为快速IO配置RAID 5的想法。

3
通过LAN迁移原始磁盘映像
这是我的情况: 同一数据中心中的两个专用服务器之间具有千兆以太网。 这两个专用服务器都已启动到基于Debian Squeeze的救援环境中,并添加了额外的工具和实用程序。还有足够的tmp空间(两个盒子上都有32GB的RAM)用于下载软件,安装软件包和/或根据需要进行编译。 两台专用服务器都有大约 3TB的可用空间。 “源”服务器在硬件RAID-10中具有4个1.5TB磁盘,带有Adaptec 4端口控制器。 “目标”服务器在硬件RAID-1中具有2 x 3TB磁盘,带有Adaptec 2端口控制器-与另一代相同,但端口数量不同。 可用块的数量/dev/sda相差不到10 MB,但是由于某种原因,目标服务器的阵列要小几个兆。 两个RAID阵列均配置为使用所有组成磁盘的整个磁盘表面来创建一个单个RAID卷。 操作系统以MBR模式引导;不使用UEFI引导。 我想做的事: 在块层上,将整个OS映像(仅由GPT分区表,/ boot分区和/分区中的GRUB2引导程序组成)从“源”服务器复制到“目标”服务器。 如果可能的话,复制应“实时”进行:这意味着我没有足够的空间在目的地侧存储磁盘映像的适当文件,除非我将磁盘映像作为副本解压缩到硬盘上正在发生。服务器之间的千兆以太网连接足够可靠,我对此感到满意,并且我当然会fsck在两端(源和目标)上运行,以验证传输前后文件系统是否正常。 如果可能,请不要通过网络传输块,每个块中的组成文件系统都不会使用这些块(所有分区的格式都为ext4)。这是因为超过50%的“源”磁盘是/分区中的可用空间。 调整/分区的大小,以便在复制分区时将其大小调整为适合目标磁盘的大小。 复制成功后,安装每个卷并修复对静态IP的引用,以反映新服务器的IP。(无需任何其他帮助,就可以这样做) 我的问题: 我是否应该首先计算/dev/sda每个服务器上的大小之间的差异(以字节为单位),然后使用e2resize非破坏性地减小源端上/分区的大小,以使其适合目标端的空间? 我应该dd在原始块设备上运行,/dev/sda从源到目标(通过ssh),还是应该在目标上创建等效的分区布局并dd在每个分区上运行?请注意,一次处理一个分区给我留下了引导加载程序的问题,但是如果我一次不做一个分区,那么dd一旦它写入了目标可以容纳的字节数,就需要知道停止传输数据(希望它将“封闭” /最后一个块上分区的最末端,逻辑上在源分区布局中所有其他分区的“右边”)。 一些杂项。细节: 源代码框上的主机操作系统是运行多个OpenVZ来宾的Ubuntu Server 12.04 由于两个设备均已启动,因此可以直接进行磁盘访问,而不会期望运行的操作系统对基础数据进行任何更改。

2
可以在不影响性能的硬件RAID配置中使用不同的驱动器速度和大小吗?
具体来说,我有一个RAID 1阵列配置,其中有两个镜像为逻辑驱动器1(a)的500gb 7200rpm SATA驱动器,而其中两个镜像为逻辑驱动器2(b)。我想以与逻辑驱动器3(c)相同的镜像方式添加两个1tb 5400rpm驱动器。这些驱动器仅用作偶尔但有必要访问的文件存储,因此,空间比速度更重要。 在研究此配置是否可行时,有人告诉我并读到该阵列只会看到最小的驱动器大小和最慢的速度。但是,我的理解是,只要对本身没有混合(在这种情况下就不会混合),阵列就应该以其实际速度和大小查看和使用所有驱动器。 在购买其他驱动器之前,我想确定一下。有见识的人吗?

2
HP SmartArray P400:如何修复出现故障的逻辑驱动器?
我有一台带有SmartArray P400控制器(包括256 MB高速缓存/电池备份)的HP服务器,其逻辑驱动器带有已替换的无法重建的故障物理驱动器。 这是我检测到错误时的样子: 〜#/ usr / sbin / hpacucli ctrl slot = 0显示配置 插槽0(嵌入式)中的Smart Array P400(sn:XXXX) 阵列A(SATA,未使用空间:0 MB) 逻辑驱动器1(698.6 GB,RAID 1,确定) 物理驱动器1I:1:1(端口1I:Box 1:托架1,SATA,750 GB,确定) 物理驱动器1I:1:2(端口1I:box 1:托架2,托架,SATA,750 GB,确定) 阵列B(SATA,未使用空间:0 MB) 逻辑驱动器2(2.7 TB,RAID 5,发生故障) 物理驱动器1I:1:3(端口1I:box 1:托架3,SATA,750 GB,确定) 物理驱动器1I:1:4(端口1I:box 1:托架4,SATA,750 GB,确定) 物理驱动器2I:1:5(端口2I:box 1:托架5,SATA,750 GB,确定) 物理驱动器2I:1:6(端口2I:box 1:托架6,托架6,SATA,750 GB,发生故障) 物理驱动器2I:1:7(端口2I:box 1:托架7,SATA,750 GB,确定) 未分配 物理驱动器2I:1:8(端口2I:box …

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.