10GbE VMware分布式交换机的iSCSI设计选项?MPIO与LACP


9

我正在为数据中心的几个VMware vSphere 5.5和6.0群集扩展存储后端。在我的VMware经验中,我主要使用NFS数据存储(Solaris ZFS,Isilon,VNX,Linux ZFS),并且可能将Nimble iSCSI阵列以及可能的Tegile(ZFS)混合阵列引入环境中。

当前的存储解决方案是Nexenta ZFS和基于Linux ZFS的阵列,它们可向vSphere主机提供NFS挂载。通过存储头上的2 x 10GbE LACP中继和每个ESXi主机上的2 x 10GbE来提供网络连接。交换机是配置为MLAG对等体的Arista 7050S-52机架顶部单元。

在vSphere方面,我正在使用在2个10GbE上行链路上配置了LACP绑定的vSphere Distributed Switch(vDS)和VM端口组,NFS,vMotion和管理流量的网络I / O控制(NIOC)分配份额。

在此处输入图片说明

多年来,这种解决方案和设计方法一直表现出色,但是增加iSCSI块存储对我来说是一个很大的转变。在可预见的将来,我仍然需要保留NFS基础结构。

我想了解如何在不更改物理设计的情况下将iSCSI集成到此环境中。ToR开关上的MLAG对我来说非常重要。

  • 对于基于NFS的存储,LACP是提供路径冗余的常用方法。
  • 对于iSCSI,通常不赞成LACP,建议使用MPIO多路径设计。
  • 我到处都在使用10GbE,并希望保持到每个服务器的简单两端口链接。这是为了布线和简化设计。

鉴于以上所述,如何充分利用iSCSI解决方案?

  • 通过LACP配置iSCSI?
  • 在vDS上创建VMkernel iSCSI适配器,并尝试将它们绑定到单独的上行链路,以实现某种形式的突变MPIO?
  • 添加更多的网络适配器?

Answers:


1

我不建议在LACP上运行iSCSI,因为与基本的链路冗余相比,它确实没有任何好处。

使用软件iSCSI HBA在vDS上为iSCSI创建VMkernel交换机正是您应该做的。这将为您提供真正的MPIO。这篇博客文章似乎与您尝试做的事情相关,而忽略了从标准交换机迁移的需要:https : //itvlab.wordpress.com/2015/02/14/how-to-migrate-iscsi-storage-from-将标准交换机转换为分布式交换机/

如果您已经有两个用于iSCSI的网络适配器,则无需添加更多的网络适配器。但是,我建议您在iSCSI网络上启用巨型帧(MTU 9000)。必须在网络的所有级别(例如VMkernel,vDS,物理交换机和SAN设备)上进行设置。

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.