Questions tagged «lacp»

5
第3层LACP目标地址散列的工作原理是什么?
基于一年多以前的一个问题(多路复用1 Gbps以太网?),我出发并设置了一个新机架,该机架带有一个新的ISP,并具有遍布各地的LACP链接。我们之所以需要这样做,是因为我们有单独的服务器(一个应用程序,一个IP)为Internet上成千上万的客户端计算机提供服务,累计累积速率超过1Gbps。 这个LACP想法应该让我们打破1Gbps的壁垒,而不必花大钱购买10GoE交换机和NIC。不幸的是,我在出站流量分配方面遇到了一些问题。(尽管在上述链接的问题中,凯文·库珀尔(Kevin Kuphal)发出警告,但仍要这样做。) ISP的路由器是某种形式的Cisco。(我从MAC地址推论得出。)我的交换机是HP ProCurve 2510G-24。服务器是运行Debian Lenny的HP DL 380 G5。一台服务器是热备用服务器。我们的应用程序无法集群。这是一个简化的网络图,其中包括具有IP,MAC和接口的所有relevan网络节点。 尽管包含所有细节,但要处理和描述我的问题有点困难。因此,为简单起见,这是一个简化为节点和物理链接的网络图。 因此,我出发了,将工具包安装在新机架上,并从他们的路由器连接了ISP的电缆。两台服务器都有到我的交换机的LACP链接,而交换机有到ISP路由器的LACP链接。从一开始,我就意识到我的LACP配置不正确:测试显示,往返于每台服务器的所有流量都完全通过服务器到交换机和交换机到路由器之间的一条物理GoE链路。 通过一些Google搜索和有关Linux NIC绑定的大量RTMF时间,我发现我可以通过修改来控制NIC绑定 /etc/modules # /etc/modules: kernel modules to load at boot time. # mode=4 is for lacp # xmit_hash_policy=1 means to use layer3+4(TCP/IP src/dst) & not default layer2 bonding mode=4 miimon=100 max_bonds=2 xmit_hash_policy=1 loop 这使流量按预期通过两个NIC离开我的服务器。但是流量仍然仅通过一个物理链路从交换机转移到路由器。 我们需要通过两个物理链接的流量。阅读并重新阅读《 2510G-24的管理和配置指南》后,我发现: …

2
VMware Distributed vSwitches(VDS)-设计,理论,“实际”用例和示例?
我开始探索在现有和新安装中使用的VMware分布式交换机(dvSwitch或VDS)。假定具有Enterprise Plus许可的VMware 5.1及更高版本。在此之前,我充分利用了通过正确的物理上行链路类型(1GbE或10GbE)定义并在单个主机上进行独立管理的标准vSwitch。 使用分布式交换机在基本方面对我有什么帮助?检查互联网上描述的其他安装和设置,我发现很多情况下虚拟管理网络或VMkernel接口保留在标准交换机上,而VM流量则流向分布式交换机。混合模型。我什至看到了建议完全避免使用分布式交换机的建议!但最重要的是,我在网上找到的信息似乎已经过时了。在转换我现有的服务器之一的微弱尝试中,我不确定需要在哪里定义管理接口,也无法很好地找到解决方案。 那么,这里的最佳实践是什么?要结合使用标准和分布式交换机?还是这不是一种具有良好思维共享的技术?这是如何由有色近期列入LACP能力在VDS? 这是一个现实生活中的新安装方案: 具有6个1 GbE接口的HP ProLiant DL360 G7服务器用作ESXi主机(可能是4或6台主机)。 4成员堆叠式交换机解决方案(Cisco 3750,HP ProCurve或Extreme)。 由EMC VNX 5500支持的NFS虚拟机存储。 建立此设置的最干净,最灵活的方法是什么?我被要求使用分布式交换机,并可能包含LACP。 将所有6个上行链路扔到一台分布式交换机中,并在不同的物理交换机堆栈成员之间运行LACP吗? 将2个上行链路与标准vSwitch相关联以进行管理,并为VM流量,vMotion,NFS存储等运行与4个上行链路LACP连接的分布式交换机? ??? 利润。

1
FreeBSD链接聚合不比单个链接快
我们在FreeBSD 9.3服务器1中放置了4端口Intel I340-T4 NIC,并将其配置为在LACP模式下进行链路聚合,以尝试将从主文件服务器将8到16 TiB数据镜像到2所需的时间减少。并行4个克隆。我们原本希望达到4 Gbit / sec的总带宽,但是无论我们尝试什么,它的出现速度都不会比1 Gbit / sec的总带宽快。2 我们正在iperf3用来在静态LAN上进行测试。3第一个实例几乎达到了预期的千兆位,但是当我们并行启动第二个实例时,两个客户端的速度下降到大约½Gbit / sec。添加第三个客户端会将所有三个客户端的速度降低到〜⅓Gbit / sec,依此类推。 我们在设置iperf3测试时非常小心,所有四个测试客户端的流量都会进入不同端口上的中央交换机: 我们已经验证了每台测试计算机都有一条返回机架交换机的独立路径,并且文件服务器,其NIC和交换机都具有通过拆分lagg0组并为每台计算机分配单独的IP地址来实现此目的的带宽。英特尔网卡上的四个接口中的一个。在这种配置下,我们确实实现了〜4 Gbit / sec的总带宽。 当我们沿着这条路走时,我们是使用旧的SMC8024L2网管型交换机执行此操作的。(PDF数据表,1.3 MB。)这不是当时最高端的交换机,但是应该可以做到这一点。我们认为该交换机可能由于年代久远而出现故障,但是升级到功能更强大的HP 2530-24G并没有改变症状。 HP 2530-24G交换机声称确实将四个端口配置为动态LACP中继: # show trunks Load Balancing Method: L3-based (default) Port | Name Type | Group Type ---- + -------------------------------- --------- + ----- -------- 1 | …

3
链路聚合(LACP / 802.3ad)最大吞吐量
我看到关于Linux下绑定接口的一些令人困惑的行为,我想把这种情况抛诸脑后,希望有人能为我清除它。 我有两个服务器:服务器1(S1)具有4个1Gbit以太网连接;服务器2(S2)具有2个1Gbit以太网连接。这两个服务器都运行Ubuntu 12.04,尽管其内核为3.11.0-15(来自lts-saucy linux-generic软件包)。 两台服务器都将各自的网络接口捆绑为一个单独的bond0接口,并具有以下配置(在中/etc/network/interfaces): bond-mode 802.3ad bond-miimon 100 bond-lacp-rate fast bond-slaves eth0 eth1 [eth2 eth3] 在服务器之间有几个HP交换机(我认为)已正确配置为相应端口上的LACP。 现在,链接正在工作-网络流量愉快地往返于两台计算机之间。并且所有各自的接口都在使用中,因此这并不意味着聚合完全失败。但是,这两个服务器之间需要尽可能多的带宽,而我没有获得预期的〜2Gbit / s。 在测试中,我可以观察到每个服务器似乎都将每个TCP连接(例如iperf,scp,nfs等)分配给单个从属接口。本质上,所有内容似乎都限制在1 GB的最大范围内。 通过设置bond-xmit-hash-policy layer3+4,我可以用于iperf -c S1 -P2在两个从属接口上发送,但是在服务器端,接收仍然仅在一个从属接口上进行,因此总吞吐量被限制为1Gbit / s,即客户端显示〜40-50MB / s在两个从属接口上,服务器在一个从属接口上显示〜100MB / s。如果未设置,bond-xmit-hash-policy则发送也仅限于一个从属接口。 我给人的印象是,LACP应该允许这种连接捆绑,例如,允许一次scp传输来利用两个主机之间的所有可用接口。 我对LACP的理解有误吗?还是我错过了某些配置选项?任何建议或调查线索,将不胜感激!
10 linux  bonding  lacp 

1
10GbE VMware分布式交换机的iSCSI设计选项?MPIO与LACP
我正在为数据中心的几个VMware vSphere 5.5和6.0群集扩展存储后端。在我的VMware经验中,我主要使用NFS数据存储(Solaris ZFS,Isilon,VNX,Linux ZFS),并且可能将Nimble iSCSI阵列以及可能的Tegile(ZFS)混合阵列引入环境中。 当前的存储解决方案是Nexenta ZFS和基于Linux ZFS的阵列,它们可向vSphere主机提供NFS挂载。通过存储头上的2 x 10GbE LACP中继和每个ESXi主机上的2 x 10GbE来提供网络连接。交换机是配置为MLAG对等体的双Arista 7050S-52机架顶部单元。 在vSphere方面,我正在使用在2个10GbE上行链路上配置了LACP绑定的vSphere Distributed Switch(vDS)和VM端口组,NFS,vMotion和管理流量的网络I / O控制(NIOC)分配份额。 多年来,这种解决方案和设计方法一直表现出色,但是增加iSCSI块存储对我来说是一个很大的转变。在可预见的将来,我仍然需要保留NFS基础结构。 我想了解如何在不更改物理设计的情况下将iSCSI集成到此环境中。ToR开关上的MLAG对我来说非常重要。 对于基于NFS的存储,LACP是提供路径冗余的常用方法。 对于iSCSI,通常不赞成LACP,建议使用MPIO多路径设计。 我到处都在使用10GbE,并希望保持到每个服务器的简单两端口链接。这是为了布线和简化设计。 鉴于以上所述,如何充分利用iSCSI解决方案? 通过LACP配置iSCSI? 在vDS上创建VMkernel iSCSI适配器,并尝试将它们绑定到单独的上行链路,以实现某种形式的突变MPIO? 添加更多的网络适配器?

6
多台交换机上的单个LACP通道会增加冗余吗?
我对以下观点,发现或证据感到好奇:使用LACP将多个接口绑定到多个交换机中的端口会增加冗余。以前绑定的接口始终是单个交换机,而冗余通道是另一个端口。 在不涉及供应商细节的情况下,我认为由于这是单个LACP,因此事件或更改可能导致广泛的服务中断的可能性。如果没有多余的设备或时间来通过各种交换机测试该单个通道,那么谁能比我拥有更多的网络知识,就可以告诉我是否发生了网络端事件,该事件会降低与已创建绑定接口的服务器的网络连接性到单独交换机上的两个端口? 是否在服务器的多个交换机(建议使用)之间使用绑定的以太网通道,从而既提高了吞吐量(无疑),又提高了冗余度(不确定)。诸如交换机故障,端口迁移,修补,恢复等网络事件是否会导致两个服务器网络接口的通道不可用? 提前致谢。


1
第2层环路避免:串联三个开关
我知道这似乎是一个家庭作业问题,但这实际上是一个较大的项目(和网络)的一部分,需要将其分解为多个部分,这样我才能清楚自己在做什么。我从未使用过[R / M] STP,并且之前仅设置了静态LAG,所以我不确定在这里我需要什么。 我通过VLAN标记在同一广播域内拥有三台交换机,这些交换机通过一个LAG组互连,每个LAG组由2个铜质千兆以太网组成。 假设这些交换机支持LAG / LACP / * STP / 802.1q VLAN标记;为了进行比较,尝试在此处最小化供应商专有扩展,但是如果有供应商“重新标记”开放标准,或者值得一提,请随时这样做。 目标是: 通过B和C为交换机A提供冗余上行链路 在两个上行链路上均具有负载平衡/增加的带宽(如果可能的话,即4 x GbE LAG组或2 x 2 GbE LAG组“主动/被动”(如果有意义)) 我不确定的是: 我认为这种循环的工作方式是:来自机器B1(在交换机B上)的ARP请求寻找1.2.3.4,该请求属于机器A1(在交换机A上),它将从A到B和A到达交换机A。 -C上行链路。交换机A(我假设)首先通过直接的B-to-A LAG上行链路接收广播,但将从两个上行链路LAG端口发送回响应(即,LAG A-to-B是端口1/2和LAG A到C是端口23/24),极大地混淆了交换机B。我对这个循环的解释方式正确吗? 如果我断言#1确实是一个循环,那么我需要* STP。根据我的阅读,STP既旧又缓慢。RSTP更快(可能是除了最大的网络以外的所有节点上的争论点?似乎就是Intarweb所说的)。然后是MSTP,这让我感到困惑:似乎允许多个VLAN的多个STP组,但是假设我只处理一个VLAN(2),这是否必要?如果我添加了第二个VLAN来承载所有3台交换机怎么办? 我非常确定M-LAG(我想这就是它的名字)将允许跨交换机的LAG,但是我不清楚这是否是一个LAG,其中包括组成交换机A的A-的4个以太网连接到B(2)和A到C(2)上行链路? 我在某个地方的一个论坛上读过(不记得在哪里),LACP将消除对* STP的需求,因为它是“动态的”,并且会“知道”哪个上行链路根据负载平衡算法转发广播/单播流量,但是后来有人不这么认为。 归根结底,鉴于LAG / LACP / * STP的首字母缩略词汤和我的拓扑,在这里我应该做什么?
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.