Questions tagged «bonding»

“ bonding”是链接聚合的Linux术语。

6
为什么我的千兆绑定不能提供至少150 MB / s的吞吐量?
我直接在两个不同的PCIe适配器上连接了两个PowerEdge 6950分频器(使用直线)。 我在每条线路上都有一个千兆链路(1000 MBit,全双工,双向流量控制)。 现在,我正在尝试使用双方的rr算法将这些接口绑定为bond0(我想为单个IP会话获取2000 MBit)。 当我通过使用dd bs = 1M和netcat在tcp模式下将/ dev / zero传输到/ dev / null来测试吞吐量时,我得到的吞吐量为70 MB / s,而不是预期的150MB / s以上。 当我使用单条线时,如果每条线使用不同的方向,则每条线的速度约为98 MB / s。如果流量进入“相同”方向,则使用单条线路时,线路速度分别为70 MB / s和90 MB / s。 仔细阅读bonding-readme(/usr/src/linux/Documentation/networking/bonding.txt)之后,我发现以下部分很有用:(13.1.1单交换机拓扑的MT Bonding模式选择) balance-rr:此模式是唯一允许单个TCP / IP连接在多个接口上对流量进行条带化的模式。因此,它是唯一一种允许单个TCP / IP流利用一个接口的吞吐量以上的模式。但是,这样做需要付出一定的代价:条带化通常会导致对等系统接收到乱序的数据包,从而经常通过重新传输段来使TCP / IP的拥塞控制系统进入。 It is possible to adjust TCP/IP's congestion limits by altering …
17 linux  bonding  sles10 

4
如何识别从Linux盒连接到同一交换机的NIC?
初始设置 作为Linux管理员,您已经安装了带有6个网卡eth0到eth5的新Linux盒。eth0接口已正确配置,所有其他接口当前都已启动,但没有IP地址。网络人员只需将四根电缆连接到此盒。两根LAN电缆用于将盒子连接到生产网络,两根LAN电缆用于将盒子连接到专用网络。您只知道eth0已连接到生产网络。但是您不知道哪个其他NIC连接到同一交换机,因为存在不同的服务器世代和/或网络人员使用错误的NIC进行连接。 手头的任务 由于此设置是您的基础结构的典型设置,因此您希望自动执行绑定接口的配置。现在,您需要执行任务以检测哪些NIC根本没有连接,以及哪些NIC链接到同一交换机,以便将它们绑定在一起。您只能访问Linux机器,而不能查询交换机。 主意 检测链接状态很容易: ethtool $device | grep 'Link detected' | cut -d ':' -f 2 但是,如何匹配连接到同一交换机的设备? 在HP-UX中,有一个用于此目的的工具称为linkloop [1]。缺少正式的Linux工具(不过,有一个旧的SourceForce项目)。 我想到的可能解决方案是: 使用tcpdump侦听所有接口。制作并发送ICMP(广播)数据包。看到该数据包的接口需要连接到同一交换机。->需要一些可能用于此目的的简单工具的建议。我想使用普通的shell命令或Python编写脚本。 尝试通过一些简单的协议(HTTP?)与外部设备对话,看看是否有响应。->容易出错,并取决于外部盒。 您是否有解决此任务的其他想法或建议? 预先感谢您的所有评论! [1] http://linux.die.net/man/1/linkloop

3
RHEL 6.4:模式1通道绑定未故障转移
我在带有两个板载Broadcom NetXtreme II BCM5708 1000Base-T NIC的HP ML 350 G5上运行RHEL 6.4,kernel-2.6.32-358.el6.i686。我的目标是将两个接口绑定到mode=1故障转移对中。 我的问题是,尽管有所有证据表明已建立并接受绑定,但将电缆从主NIC拔出仍会导致所有通信停止。 ifcfg-etho和ifcfg-eth1 首先,ifcfg-eth0: DEVICE=eth0 HWADDR=00:22:64:F8:EF:60 TYPE=Ethernet UUID=99ea681d-831b-42a7-81be-02f71d1f7aa0 ONBOOT=yes NM_CONTROLLED=yes BOOTPROTO=none MASTER=bond0 SLAVE=yes 接下来,ifcfg-eth1: DEVICE=eth1 HWADDR=00:22:64:F8:EF:62 TYPE=Ethernet UUID=92d46872-eb4a-4eef-bea5-825e914a5ad6 ONBOOT=yes NM_CONTROLLED=yes BOOTPROTO=none MASTER=bond0 SLAVE=yes ifcfg-bond0 我的债券的配置文件: DEVICE=bond0 IPADDR=192.168.11.222 GATEWAY=192.168.11.1 NETMASK=255.255.255.0 DNS1=192.168.11.1 ONBOOT=yes BOOTPROTO=none USERCTL=no BONDING_OPTS="mode=1 miimmon=100" /etc/modprobe.d/bonding.conf 我有一个/etc/modprobe.d/bonding.conf这样填充的文件: alias bond0 bonding ip …
11 linux  redhat  rhel6  bonding 

16
2条DSL线...有什么好处?
我办公室里有Verizon DSL,大约一年前我以每月29.95美元的价格放入DSL ...最近我增加了一条新的电话线,将其与DSL捆绑在一起更便宜,所以现在我有两条DSL线...我的计划是在我的1年合同到期时(9月)关闭第一个合同。 DSL在一条线路上出现了几次,所以我只用了另一条线路,这是一个很好的冗余-但这种情况很少发生。(我拔掉了一根线,又插了另一根) 问题是,有没有办法同时使用两条DSL线路,以便 增加带宽和有效速度可能会增加(可能吗?) 将它们同时打开并以某种方式连接,以便我网络上的流量仅使用其中之一,如果其中一个出现故障,流量将自动路由? 如果我可以通过增加两个来提高速度,或者至少获得一些自动冗余,那么我认为没有理由同时保持两者。
11 bonding  dsl 

1
FreeBSD链接聚合不比单个链接快
我们在FreeBSD 9.3服务器1中放置了4端口Intel I340-T4 NIC,并将其配置为在LACP模式下进行链路聚合,以尝试将从主文件服务器将8到16 TiB数据镜像到2所需的时间减少。并行4个克隆。我们原本希望达到4 Gbit / sec的总带宽,但是无论我们尝试什么,它的出现速度都不会比1 Gbit / sec的总带宽快。2 我们正在iperf3用来在静态LAN上进行测试。3第一个实例几乎达到了预期的千兆位,但是当我们并行启动第二个实例时,两个客户端的速度下降到大约½Gbit / sec。添加第三个客户端会将所有三个客户端的速度降低到〜⅓Gbit / sec,依此类推。 我们在设置iperf3测试时非常小心,所有四个测试客户端的流量都会进入不同端口上的中央交换机: 我们已经验证了每台测试计算机都有一条返回机架交换机的独立路径,并且文件服务器,其NIC和交换机都具有通过拆分lagg0组并为每台计算机分配单独的IP地址来实现此目的的带宽。英特尔网卡上的四个接口中的一个。在这种配置下,我们确实实现了〜4 Gbit / sec的总带宽。 当我们沿着这条路走时,我们是使用旧的SMC8024L2网管型交换机执行此操作的。(PDF数据表,1.3 MB。)这不是当时最高端的交换机,但是应该可以做到这一点。我们认为该交换机可能由于年代久远而出现故障,但是升级到功能更强大的HP 2530-24G并没有改变症状。 HP 2530-24G交换机声称确实将四个端口配置为动态LACP中继: # show trunks Load Balancing Method: L3-based (default) Port | Name Type | Group Type ---- + -------------------------------- --------- + ----- -------- 1 | …

3
链路聚合(LACP / 802.3ad)最大吞吐量
我看到关于Linux下绑定接口的一些令人困惑的行为,我想把这种情况抛诸脑后,希望有人能为我清除它。 我有两个服务器:服务器1(S1)具有4个1Gbit以太网连接;服务器2(S2)具有2个1Gbit以太网连接。这两个服务器都运行Ubuntu 12.04,尽管其内核为3.11.0-15(来自lts-saucy linux-generic软件包)。 两台服务器都将各自的网络接口捆绑为一个单独的bond0接口,并具有以下配置(在中/etc/network/interfaces): bond-mode 802.3ad bond-miimon 100 bond-lacp-rate fast bond-slaves eth0 eth1 [eth2 eth3] 在服务器之间有几个HP交换机(我认为)已正确配置为相应端口上的LACP。 现在,链接正在工作-网络流量愉快地往返于两台计算机之间。并且所有各自的接口都在使用中,因此这并不意味着聚合完全失败。但是,这两个服务器之间需要尽可能多的带宽,而我没有获得预期的〜2Gbit / s。 在测试中,我可以观察到每个服务器似乎都将每个TCP连接(例如iperf,scp,nfs等)分配给单个从属接口。本质上,所有内容似乎都限制在1 GB的最大范围内。 通过设置bond-xmit-hash-policy layer3+4,我可以用于iperf -c S1 -P2在两个从属接口上发送,但是在服务器端,接收仍然仅在一个从属接口上进行,因此总吞吐量被限制为1Gbit / s,即客户端显示〜40-50MB / s在两个从属接口上,服务器在一个从属接口上显示〜100MB / s。如果未设置,bond-xmit-hash-policy则发送也仅限于一个从属接口。 我给人的印象是,LACP应该允许这种连接捆绑,例如,允许一次scp传输来利用两个主机之间的所有可用接口。 我对LACP的理解有误吗?还是我错过了某些配置选项?任何建议或调查线索,将不胜感激!
10 linux  bonding  lacp 

2
在逻辑接口上设置MTU是否会影响物理接口
我一直在使用接口绑定接口,VLAN接口和网桥接口的组合来为xen domU提供冗余和不同的逻辑网络层。 此设置运行良好,但是我不确定这些接口上的不同设置会如何影响彼此。为了说明这一点,这是我在典型的dom0上的设置: /- vlan10 -- br10 eth0 -\ / > bond0 <--- vlan20 -- br20 eth1 -/ \ \- vlan30 -- br30 考虑到绑定接口,VLAN接口和网桥接口是逻辑接口,而不是物理接口,如果物理接口(eth0,eth1)具有不同的MTU设置可以达到目的,则在这些接口上设置MTU是否会产生任何影响?

4
跨不同媒体的多WAN绑定
我最近又在考虑Viprinet提供的产品,基本上他们有一对路由器,一个位于数据中心,VPN多通道集线器和现场硬件, VPN多通道路由器。 他们还拥有许多用于3G,UMTS,以太网,ADSL和ISDN适配器的接口卡(例如HWIC)。 他们的主要思想似乎是跨不同媒体的纽带。我真的很想在几个项目中使用它,但是它们的价格确实非常高,集线器大约是1-2k,路由器是2-6k,接口模块每个是200-600。 因此,我想知道的是,是否可以使用几个现有的思科路由器(28xx或18xx系列)做类似的事情,并基本上连接一堆不同的WAN端口,但所有这些都可以作为一个整体展示通道返回Internet,如果WAN接口之一发生故障,则进行无缝(或几乎)故障转移。 基本上,如果我有3x 3G到以太网调制解调器,并且每个调制解调器都在不同的网络上,我希望能够在所有这些调制解调器之间进行负载平衡/绑定,而不必为Viprinet支付特权。 有谁知道我将如何基于标准协议(或特定于供应商的协议)为自己配置一些东西,而实际上不必购买Viprinet硬件?


4
人们如何监视Linux上绑定从属接口的状态?
我已经将两个接口设置为绑定从属(eth0和eth1绑定为bond0)。人们如何监视奴隶的状况? 如果一个接口上的链接失败,如何通知您?您是否在/ sys / class / net / bond0或/ proc / net / bonding / bond0中轮询某些内容?我可以配置获取通知的守护程序吗? 一些上下文:我正在运行SUSE 11服务器SP1,并且我对任何图形工具都不感兴趣,因为该服务器未在运行X11。

3
Procurve交换机中的服务器到交换机中继,这是什么意思?
我希望在新的数据中心环境中设置交换机冗余。至少在与绕过链路聚合的“单个交换机”限制的技术搭配使用时,IEEE 802.3ad似乎是此概念的首选。浏览手册中的程序开关,我看到: 服务器到交换机的分布式中继,允许服务器通过一个逻辑中继连接到两台交换机;提高弹性并实现虚拟数据中心的负载共享 http://www.procurve.com/docs/products/brochures/5400_3500%20Product%20Brochure4AA0-4236ENW.pdf 我试图弄清楚这与802.3a标准的关系,因为它似乎可以满足我的要求(一台服务器有2个网卡,每个网卡连接到单独的交换机,一起形成一个逻辑网卡,提供我们想要的快乐冗余),但我想我正在寻找熟悉此概念的人,并且可以对其进行补充。

4
跨多个交换机的链路绑定?
我已经阅读了一些有关将ifsslave与nics绑定的信息。我无法理解的是,是否需要特殊配置才能将绑定拆分到两个交换机之间。例如,如果我有几台服务器,每个服务器各有两个nic,还有两个单独的交换机,我是否只需配置绑定并将每个nic分别插入1号交换机,将另一个nic插入2号交换机?还是还有更多呢? 如果绑定是活动备份,那么单台计算机上的nic故障会否意味着服务器可能会断开连接,因为其余的计算机都在使用主nic,而在使用辅助nic?还是也用一根电缆链接交换机?

3
Linux中的通道绑定模式之间有什么区别?
在Linux下,您可以将多个网络接口组合成一个“绑定”网络接口以提供故障转移。 但是有几种模式,其中一些不需要开关支持。我不受切换的限制,因为我可以使用任何模式。 但是,在阅读有关不同模式的信息时,并不能立即弄清每种模式的优缺点。 某些模式是否提供更快的故障转移? 每种模式对CPU负载的影响如何? 哪些模式可以结合带宽而不只是提供冗余? 有限制吗? balance-rr是否需要开关支持? 可靠性?您长期的工作经历是什么?

2
网络流量似乎没有离开中继
我正在升级一些新的虚拟化服务器,其中一部分是将一些更高带宽的管道插入其中。最终目标是将4个GigE端口绑定到承载802.1q标记流量的单个中继中。我可以做到这一点,但是我遇到了一个奇怪的问题。但首先是一个图表。 ---------- ---------- 1GbE trunks | | 10GbE | | ------------- -------- | SW1 |-------| SW2 | ------------- | VM1 | | | | | ------------- -------- ---------- ---------- | | 1GbE ----------- | 1GbE |--------| client2 | | ----------- ---------- | | 1GbE ----------- | SW3 |------| client1 | …
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.