人们实际上将哪种存储用于VMware ESX服务器?


27

VMware和许多网络传播者试图告诉您,复杂的(=昂贵的)光纤SAN是VMware ESX和ESXi服务器的“唯一”存储选项。好,是的,当然。使用SAN是快速,可靠的,并使vMotion成为可能。大。但是:所有ESX / ESXi用户能否真正负担得起SAN?

我的理论是,在这个星球上,只有不到20%的VMware ESX安装实际使用光纤或iSCS SAN。这些安装大多数将在有能力承担费用的较大公司中进行。我预计大多数VMware安装都将使用“附加存储”(vmdks存储在服务器内部的磁盘上)。他们中的大多数都在中小型企业中经营,其中有很多!

我们运行两个带有附加存储的ESX 3.5服务器,以及两个带有iSCS san的ESX 4服务器。两者之间的“真实生活差异”几乎不明显:-)

您知道这个问题的任何官方统计信息吗?您将什么用作存储介质?


5
应该是社区Wiki
MDMarra

论文还是理论?
马克·亨德森

Answers:


27

我做了很多VMware咨询工作,我会说这个比例接近80%的已安装用户使用高可用性共享存储(FC,iSCSI或高端NAS),而我的很多客户都是中小型企业。我发现的关键因素是,对于当今的大多数企业而言,企业是否将其服务器正常运行时间视为至关重要的时间。

您当然可以从直接连接的存储中运行非常高性能的VM(在RAID 10阵列中具有16个内部驱动器的HP DL380 G6将具有相当快的磁盘IO),但是如果要构建VMware或任何其他虚拟化环境来替换数十个,数百个或成千上万台服务器,如果您不花大量精力(可能是金钱)来构建一个强大的存储体系结构,那么您会发疯。

您无需购买用于群集功能的高端SAN-您可以使用相当便宜的NAS(或HP \ Lefthand's VSA等虚拟化SAN)来实现这些功能,而仍使用经过认证的存储。但是,如果您使用的是共享存储,而SAN \ NAS基础架构中的所有存储都没有冗余,那么您不应该真正将其用于测试之外。冗余是(至少)服务器中的双(独立)HBA \存储网卡,双独立结构,SAN中的冗余控制器,电池后备高速缓存\高速缓存降级,冗余热插拔风扇和电源等,RAID 5 \ 6 \ 10 \ 50和适当数量的热备用。

您的系统之间真正的实时差异是,如果您的一个独立系统发生灾难性的故障,则您需要做很多工作来恢复它,并且仅在对其进行修补时就将导致停机。对于群集的SAN连接系统,修补虚拟机管理程序,甚至升级虚拟机管理程序硬件,都将导致零停机时间。灾难性的服务器故障只会使服务中断一段时间(在最坏的情况下,在一个单独的节点上重新引导VM),或者如果您具有容错能力覆盖这些VM,那么您根本就不会停机。


取决于您的业务,超级duper双重冗余可能会过大-一些零件(例如hbas和gbics)可以解决许多问题。如果您具有群集故障转移功能,那么再加上一些措施就可以为许多公司提供足够的弹性,尤其是在FC给您带来巨大冲击的时候。
Jim Zajkowski 09年

我应该添加八个ESX服务器,它们全部使用共享FC磁盘进行存储。
Jim Zajkowski 09年

1
True和FC贴纸震荡是一个真正的问题(特别是FC交换机的端口许可成本使我经常感到胃灼热),但由于长期的可支持性具有完全的冗余性,使得一切都变得易于管理,例如,您可以避免几乎所有的停机时间,例如基础设施维护。有了FC,这种冗余肯定会花上一条腿和一条腿(可能要花一两个肾脏),但是对于iSCSI或NAS环境,即使使用相对昂贵的组件,也不会增加总成本。
赫尔维克,

1
我还没有看到“一切都翻倍”的结果……通常SAN驱动器插入一个背板,因此是单点故障。
詹姆斯·里斯托

1

作为一家拥有超过一千台主机的公司,我们从FC开始,尝试了iSCSI一会儿,但由于性能问题而退回到FC。我们正在认真研究NFS,但尚未得出结论。哦,我们使用HP XP / EVA和一些NetApp,我们没有本地存储栏的台式机/开发主机。


1

如您所见,没有一种适合所有需求的大小,也没有必要使用单一的存储解决方案。您可以具有多个存储类别,具体取决于可用性和性能要求


1

对于高性能的读写,我发现FC在性能上是无与伦比的,尽管价格很高...但是它可以正常工作...对于更平凡的性能期望,iSCSI实际上表现不错,因此我通常会交换FC磁盘子系统上的服务器邮箱文件和iSCSI接口磁盘上的实际启动驱动器,DNS服务器和Active Directory计算机也从iSCSI运行。


1

我已经在SAN,NAS和DAS上运行过ESX。这完全取决于:

  1. 预算
  2. 经验
  3. 数据中心和/或机架空间

为了提高可靠性和速度,我认为您无法击败SAN。

为了可靠性和成本,我会选择NAS。

对于速度和成本,DAS。

并不是每个选项都不会重叠,而是我亲眼所见。


0

我们运行4台ESX 4服务器,并使用EqualLogic iSCSI SAN。


在价格和性能方面,EqualLogic设备如何比拟LeftHand或传统SAN?
Sim

我也很好奇也知道LeftHand与现在的HP收购了它们相比如何
Warren

我对LeftHand没有任何经验。实际上,我正在对EqualLogic设置与Compellent的光纤通道SAN进行比较。当我得到一些结果时,我将发布更新。
理查德·韦斯特2009年

0

在较小的安装中,只要您有体面的磁盘,就可以完全接受本地存储​​-我会说10k RPM + SAS驱动器。解决方案唯一必须使用共享磁盘的解决方案(我故意没有说San,因为共享磁盘可以关闭并且可以共享NFS)是在需要进行群集时-VMWare HA和DRS。

现在,我们有3层存储-光纤通道SAN,高端Equalogix SAN和低端MD3000i SAN。最后两个是iSCSI。我们还从ESX服务器的本地存储中运行了一些服务器-大多数实用程序服务器我们不在乎它们是否会停机一两个小时,而我们会在一切正常的情况下修复问题。

我们还在使用7.2k SATA驱动器和iSCSI企业目标的自制NAS上运行我们的测试环境(性能不是很好,但这可以帮助我们解决)。

在较大的环境中,很多人也倾向于与NFS竞争。我已经想玩了一段时间,但没有找到时间。


0

我们运行了四台(好了,四台正在运行,其中一台用于测试)ESXi主机,这些主机具有由商用交换机构建的iSCSI光纤网络和一台低端日立SAN(SMS-100)。

即使在这个级别上,我们也有两个控制器,每个控制器在SAS背板上都有两个端口,因此任何一个控制器都可以占用磁盘和两个NIC(我们将它们跨线连接到两个交换机,再连接到ESX主机中的两个NIC)。

每个vfs卷都有四个可见路径,因此可以合理容忍。我们在结构上使用Dell Poweredge交换机-它们肯定有潜在的问题(最重要的是,没有冗余的PSU)。但是它们也很便宜,以至于有可能在一个盒子中准备好两个预先配置的备件进行交换。

显然,如果您想要更多的数字,则需要花费更多的钱,但是我认为iSCSI,ESXi和商用千兆以太网套件的魅力在于,您可以在弹性和性能方面超过您的体重。


0

一切都有其优缺点。最重要的是SLA,应用程序负载和规模。因此,如果您需要针对小型部署(1-5个主机)的高性能存储,则可以使用NFS来实现(实际上,我曾经使用NFS实现了比使用RAM磁盘的SAN更好的延迟)。现在尝试扩展规模,您会发现大规模复制设置的成本与不错的SAN相当,这使FC成为唯一值得考虑的合理选择……大多数时候,我最终会为各种服务(应用,数据库,备份,归档),而不是根据需要优化成本的单一平台。

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.