第3层LACP目标地址散列的工作原理是什么?
基于一年多以前的一个问题(多路复用1 Gbps以太网?),我出发并设置了一个新机架,该机架带有一个新的ISP,并具有遍布各地的LACP链接。我们之所以需要这样做,是因为我们有单独的服务器(一个应用程序,一个IP)为Internet上成千上万的客户端计算机提供服务,累计累积速率超过1Gbps。 这个LACP想法应该让我们打破1Gbps的壁垒,而不必花大钱购买10GoE交换机和NIC。不幸的是,我在出站流量分配方面遇到了一些问题。(尽管在上述链接的问题中,凯文·库珀尔(Kevin Kuphal)发出警告,但仍要这样做。) ISP的路由器是某种形式的Cisco。(我从MAC地址推论得出。)我的交换机是HP ProCurve 2510G-24。服务器是运行Debian Lenny的HP DL 380 G5。一台服务器是热备用服务器。我们的应用程序无法集群。这是一个简化的网络图,其中包括具有IP,MAC和接口的所有relevan网络节点。 尽管包含所有细节,但要处理和描述我的问题有点困难。因此,为简单起见,这是一个简化为节点和物理链接的网络图。 因此,我出发了,将工具包安装在新机架上,并从他们的路由器连接了ISP的电缆。两台服务器都有到我的交换机的LACP链接,而交换机有到ISP路由器的LACP链接。从一开始,我就意识到我的LACP配置不正确:测试显示,往返于每台服务器的所有流量都完全通过服务器到交换机和交换机到路由器之间的一条物理GoE链路。 通过一些Google搜索和有关Linux NIC绑定的大量RTMF时间,我发现我可以通过修改来控制NIC绑定 /etc/modules # /etc/modules: kernel modules to load at boot time. # mode=4 is for lacp # xmit_hash_policy=1 means to use layer3+4(TCP/IP src/dst) & not default layer2 bonding mode=4 miimon=100 max_bonds=2 xmit_hash_policy=1 loop 这使流量按预期通过两个NIC离开我的服务器。但是流量仍然仅通过一个物理链路从交换机转移到路由器。 我们需要通过两个物理链接的流量。阅读并重新阅读《 2510G-24的管理和配置指南》后,我发现: …