ceph是否可以将硬件RAID阵列(LUN)作为OSD驱动器处理?


8

我对ceph还是很陌生,请尝试找出ceph是否支持硬件级别的RAID HBA。

可悲的是找不到任何信息。我发现,建议对OSD使用普通磁盘。但这将要求推向了PCIe,磁盘的接口达到了高带宽,而CPU的要求也很高。硬件RAID控制器已经解决了这些要求,并且基于设置提供了高冗余度,而不会占用我的PCIe,CPU或任何其他资源。

因此,我希望的设置是拥有本地RAID控制器,无论我需要什么RAID级别,它都可以在控制器级别(RAID 5,RAID 6)处理磁盘冗余。除了我想使用ceph在哪些RAID LUN上进行更高级别的复制外:主机,机箱,机架,行,数据中心或CRUSH中可能或可计划的任何东西

该设置有任何经验吗?

是推荐的设置吗?

关于此硬件RAID集成的任何深入文档吗?

Answers:


7

您不能代表您应该这样做。可以将RAID LUN映射到Ceph,但是您要额外注入一层抽象,并且至少使Ceph功能的一部分变得无用。

他们的邮件列表中的类似主题:

http://lists.ceph.com/pipermail/ceph-users-ceph.com/2017-September/021159.html


1
您能否详细说明一下“至少使Ceph功能的一部分变得无用”?不明白这一点
cilap '18

1
Ceph的整个想法...好吧,主要想法之一!是为了避免管理作为RAID LUN的“存储岛”。
BaronSamedi1958 '18年

0

但这将要求推向了PCIe,磁盘的接口达到了高带宽,而CPU的要求也很高。

并非如此,现代通用CPU和互连可以很好地满足许多存储工作负载的需求。

是的,RAID控制器通过一个机箱中的几个磁盘来实现冗余。但是,当您运行已有的冗余,多节点分布式存储解决方案(例如Ceph)时,这就是成本和复杂性。当Ceph已经有多个物理副本时,为什么还要镜像一个物理磁盘呢?

这种解决方案的构建块只是一堆磁盘。例如Open Compute Storage的 Open Vault。机箱中的30个主轴,连接到可能有数十个CPU内核的计算节点。根据需要添加任意数量的节点。如果您想最大化吞吐量,可以将计算专用于Ceph。


与硬件RAID基准相比,您有关于真实CPU,内存和磁盘基准的事实吗?使用硬件RAID阵列时,我对CPU和内存的要求不高,因为硬件控制器正在照顾它。
西拉普

我不。而且您确实想做自己的基准测试。请注意,CPU每秒执行数十亿次循环,而互连(PCIe)每秒执行数十亿次传输。您可以自由使用RAID控制器,在分布式存储节点中似乎没有必要。
John Mahowald

-1

推荐的设置是使用单个磁盘,或者最终使用RAID-1对中的磁盘。

一个SAS控制器(或JBOD模式下的RAID控制器)可以驱动数百个磁盘,而不会造成任何麻烦。

使用非常大的阵列会破坏CEPH的目的,即避免单点故障和“热点”。这实际上也会损害您的冗余。

假设您要使用36磁盘服务器机箱(类似于Supermicro的通用硬件),使用8 TB驱动器构建1 PB CEPH群集。让我们从存储容量和可靠性方面比较带RAID和不带RAID的设置:

  • 使用RAID-6,您需要5个机箱(和10个OSD)。

    • 每个机箱将具有2个18个磁盘RAID阵列。
    • 您将拥有1024 TB的可用存储空间。
    • 万一发生多磁盘崩溃,则必须重建256 TB。
  • 使用CEPH和5个机箱,您将拥有180个OSD。

    • 可用容量将略微优越(使用擦除编码):1152 TB
    • 万一发生多磁盘崩溃,您只需重建故障磁盘的数量即可(除非它是一台完整的服务器,否则总会少于256 TB)。

我正在获得Ceph​​的要求,但仍然没有回答一个主要问题。36驱动器机箱有哪些要求?Afaik您需要从ceph的描述中获得36个内核。您还会为您的示例建议什么配置?复制工作是什么,它的基准是什么?
cilap '18

忘了 Afaik您的设置需要更多实例或什至更多服务器来进行管理。
cilap '18

@cilap确实取决于所需的性能。通常,每个OSD不需要1个内核,使用大约一半的内核就足够了。擦除编码的性能不如完全复制。
wazoox

我没有提到MDS,因为您会以任何一种方式使用它们。根据群集费用,您可以将存储节点用作MDS和MON服务器。
wazoox
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.