问题
我们在现有平台上的性能存在问题,因此,我正在蜂巢式地寻求对此的第二种意见。到目前为止,性能问题与IOPS有关,而不与吞吐量有关。
场景
16个主机的刀片中心,每个主机具有64GB的RAM。(这是一台带M610的Dell M1000e,但这可能不相关)500个VM,所有Web服务器(或相关的Web技术,例如MySQL,负载均衡器等),其中约90%是Linux,其余的是Windows。系统管理程序是VMWare vSphere。我们需要提供主机HA,因此本地存储空间不足。这样,主机只需启动一张SD卡即可。
有点背景思维
目前,我们最多可容纳6台主机(以当前的增长,刀片服务器中心将在几年内达到满负荷状态),并且我们正在iSCSI上运行Dell MD3220i w / MD1220进行扩展。
我们已经考虑了可能的选择,以及随之而来的即时想法:
- 在NFS数据存储中分布VM,并运行满足多达给定数量VM的性能要求的NFS存储。NFS似乎更便宜,而且比块级存储要抽象得多,因此我们可以根据需要进行移动。
- 添加更多的MD3220i控制器/目标。尽管我们担心这样做会在某种程度上对VMWare处理具有许多目标的方式产生负面影响。
- 将所有磁盘从Nearline SAS交换到SSD。这应该可以完全解决IOPS问题,但是会明显降低我们的存储容量。而且它仍然非常昂贵。
- vSphere 5具有存储设备。我们没有做太多研究,但是它必须运作良好吗?
问题
您将在所有这些存储下运行哪种存储?它不需要扩展到另一个刀片服务器中心,只需要为所有这些VM提供相对良好的性能即可。
我不是在寻找“购买SAN x,因为它是最好的”答案。我正在寻找关于各种SAN技术(iSCSI,FC,FCoE,InfiniBand,NFS等),不同类型的存储(SATA,SAS,SSD)以及用于处理100个VM的存储方法(整合,分离)的想法。 ,分片等)。
对此绝对欢迎任何想法,链接,指南,指针等。我也很想听听我们已经考虑过的上述选择的想法。
非常感谢您的任何投入!
12年3月5日更新
到目前为止,一些精彩的回复,非常感谢大家!
到目前为止,按照对这个问题的回答,我开始认为以下方法是可行的:
- 将可用存储分层到VMWare群集,并将VM磁盘放置在适合其工作负载的存储上。
- 潜在地利用能够自动管理将数据放置到合适的存储上的SAN的SAN。
- Infiniband似乎是最具成本效益的,可在主机满载时获得所需带宽。
绝对听起来像是要利用主要SAN供应商的售前服务来解决这个问题。
我将继续考虑这个问题一段时间。同时,我们再感激收到任何更多的建议!