我正在为数据中心的几个VMware vSphere 5.5和6.0群集扩展存储后端。在我的VMware经验中,我主要使用NFS数据存储(Solaris ZFS,Isilon,VNX,Linux ZFS),并且可能将Nimble iSCSI阵列以及可能的Tegile(ZFS)混合阵列引入环境中。
当前的存储解决方案是Nexenta ZFS和基于Linux ZFS的阵列,它们可向vSphere主机提供NFS挂载。通过存储头上的2 x 10GbE LACP中继和每个ESXi主机上的2 x 10GbE来提供网络连接。交换机是配置为MLAG对等体的双Arista 7050S-52机架顶部单元。
在vSphere方面,我正在使用在2个10GbE上行链路上配置了LACP绑定的vSphere Distributed Switch(vDS)和VM端口组,NFS,vMotion和管理流量的网络I / O控制(NIOC)分配份额。
多年来,这种解决方案和设计方法一直表现出色,但是增加iSCSI块存储对我来说是一个很大的转变。在可预见的将来,我仍然需要保留NFS基础结构。
我想了解如何在不更改物理设计的情况下将iSCSI集成到此环境中。ToR开关上的MLAG对我来说非常重要。
- 对于基于NFS的存储,LACP是提供路径冗余的常用方法。
- 对于iSCSI,通常不赞成LACP,建议使用MPIO多路径设计。
- 我到处都在使用10GbE,并希望保持到每个服务器的简单两端口链接。这是为了布线和简化设计。
鉴于以上所述,如何充分利用iSCSI解决方案?
- 通过LACP配置iSCSI?
- 在vDS上创建VMkernel iSCSI适配器,并尝试将它们绑定到单独的上行链路,以实现某种形式的突变MPIO?
- 添加更多的网络适配器?