3
如何破解ESXi和VNXe之间的1 Gbit iSCSI限制
我的iSCSI网络遇到大麻烦,似乎无法使其尽快运行。 因此,在涉及VMware和EMC专家的情况下,我已经尝试了几乎所有方法来从SAN获得完整性能。 我的设备的简短描述:3个HP DL360 G7 / vSphere 5.5 / 4个板载NIC / 4个PCIe iSCSI英特尔NIC 2个HP 2510-24G 1个EMC VNXe 3100/2个存储处理器,每个存储处理器有2个iSCSI专用NIC / 24个15k SAS RAID10 / 6个7.2k SAS RAID6 我采用了最佳实践,并将存储池均匀地放在两个iSCSI服务器上。我创建了2个iSCSI服务器,每个存储处理器上一个。请查看我的iSCSI配置的图像。 iSCSI通信是通过VLAN分开的(禁止为其他VLAN设置),我什至在29xx系列的另一台HP交换机上也尝试过。启用了流量控制(也尝试将其禁用),禁用了巨型。不涉及路由。 在ESX主机上,正在使用所有iSCSI NIC,因为我对每个数据存储都使用了“循环”设置。我还使用1 IO的路径更改策略进行了尝试,因为很多其他人似乎都以这种方式获得了性能。我也尝试过内部NIC(Broadcom),但是没有区别。在交换机上,我可以看到端口在ESX端和VNXe端的使用非常均匀。我有一个完美的负载平衡,但是:我总共不能超过1 Gbit。我确实知道VNXe已针对多个连接进行了优化,而Round Robin确实也需要这样做,但是即使我在2个主机和2个数据存储之间(使用不同的iSCSI服务器)进行存储vMotion时,也可以看到一条大约84 MBit /通过Unisphere Web界面。我经常看到那条线的价格与我不敢相信我的磁盘会完全相同的值 不能交付更多或任务要求不高。情况变得越来越好:在每台主机和每台存储处理器上仅使用一根电缆,即可达到相同的性能。因此,我有很多冗余,但是根本没有额外的速度。 正如我已经看到很多人谈论其iSCSI性能一样,我非常想找出我的配置出了什么问题(该配置已由受过VMware和EMC培训的人员进行了测试和验证)。我感谢每一个意见! 编辑: 是的,我已将vMotion配置为使用多个NIC。除该存储外,vMotion始终通过iSCSI适配器而不是vMotion适配器。我已附上我的配置的屏幕截图。 我知道存储vMotion没有基准,但是最近几天我不得不做很多这样的事情,并且上限一直保持在80 MB / s左右。RAID 10中的6个15k 600 GB SAS磁盘池应该可以轻松地处理更多数据,您认为吗?我为您做了IO Meter测试-尝试了其中一些,最快的是256 KiB …