这还不是答案...。这是通用答案的框架。如果您有时间,请填写所有您知道的信息。关于配置特定的硬件,请为每个供应商发布单独的答案,以便我们可以使这些信息井井有条并相互独立。
端口的QoS配置文件,以及关闭风暴控制,将MTU设置为9000,打开流控制以及将端口置于portfast
吞吐量和延迟
更新了固件,驱动程序和其他系统
MPIO
巨型帧/ MTU
随着网络链接速度的增加,潜在生成的数据包的数量也会增加。这会产生越来越多的CPU /中断时间,它们花费在生成数据包上,这既给传输系统造成了不适当的负担,又使成帧占用了过多的链路带宽。
所谓的“巨型”帧是超过规范的1518字节限制的以太网帧。虽然数字可能会因交换机供应商,操作系统和NIC的不同而有所不同,但最典型的巨型数据包大小是9000和9216字节(后者是最常见的)。假设可以将大约6倍的数据放入9K帧中,则主机上实际数据包(和中断)的数量将减少类似的数量。这些收益在发送大量数据(例如iSCSI)的更高速度(例如10GE)的链路上尤为明显。
启用巨型帧需要同时配置主机和以太网交换机,并且在实施之前应格外小心。应该遵循一些准则-
1.)在给定的以太网段(VLAN)中,所有主机和路由器都应配置相同的MTU。没有正确配置的设备将把较大的帧视为链接错误(特别是“巨人”)并将其丢弃。
2.)在IP协议中,具有不同帧大小的两个主机需要某种机制来协商适当的通用帧大小。对于TCP,这是路径MTU(PMTU)发现,并且依赖于ICMP无法到达的数据包的传输。确保在所有系统上启用PMTU,并且任何ACL或防火墙规则都允许这些数据包。
以太网流量控制(802.3x)
尽管被推荐的某些iSCSI厂商,简单的802.3X以太网流量控制应该不被在大多数环境中启用,除非所有交换机端口,网卡和链接都完全致力于iSCSI流量,没有别的。如果存在的链接(如SMB或NFS文件共享,心跳集群存储或VMware,网卡绑定控制/监视交通等)简单802.3x流控制任何其他流量应该不被使用,因为它的块整个端口和其他非iSCSI通信也将被阻止。以太网流量控制的性能提升通常很小或根本不存在,应在考虑确定是否有任何实际收益的整个OS / NIC /交换机/存储组合上执行realistinc基准测试。
从服务器的角度来看,实际的问题是:如果NIC或网络超限了,我是否停止网络通信,还是开始丢弃并重新传输数据包?打开流控制将允许在接收器侧清空NIC的缓冲区,但会在发送器侧增加缓冲区的压力(通常,网络设备将在此处进行缓冲)。
TCP拥塞控制(RFC 5681)
TOE(TCP / IP卸载引擎)
iSOE(iSCSI卸载引擎)
LSO(TCP分段/大型发送卸载)
网络隔离
iSCSI的最佳常规做法是将启动器和目标与其他非存储网络流量隔离。这在安全性,可管理性以及在许多情况下将资源专用于存储流量方面提供了好处。这种隔离可以采取几种形式:
1.)物理隔离-所有启动器都有一个或多个专用于iSCSI流量的NIC。根据所讨论硬件的功能以及给定组织内的特定安全性和操作要求,这可能意味着也可能不是暗示专用网络硬件。
2.)逻辑隔离-启动器通常在速度更快的网络(即10GE)中发现,已将VLAN标记(请参阅802.1q)配置为分隔存储和非存储流量。
在许多组织中,还采用了其他机制来确保iSCSI启动器无法通过这些专用网络相互访问,而且,这些专用网络无法从标准数据网络访问。用于实现此目的的措施包括标准访问控制列表,专用VLAN和防火墙。
这里也涉及底板和交换结构。
QoS(802.1p)
局域网(802.1q)
STP(RSTP,MSTP等)
流量抑制(风暴控制,多/广播控制)
安全
认证与安全
查普
IPSec协议
LUN映射(最佳做法)