Questions tagged «lvs»

2
LVS vs HAProxy,我应该选择哪个?
我正在寻找一种针对负载平衡和故障转移策略的解决方案,主要用于大型Web应用程序。我们有很多服务需要平衡,例如Web,MySQL和许多其他基于HTTP或TCP的服务。但是我不确定他们的优缺点是什么,我应该选择哪个。

3
在HAProxy中使用TCP负载平衡时,是否所有出站流量都流经LB?
我正在设置一个使用VM(可能是Amazon,但不是一成不变的)托管的应用,这将需要HTTP负载平衡和大量(持久性)TCP连接的负载平衡(如果可能,则为50k左右)。数据量不是很高,但是更新频繁。 现在,我正在评估负载均衡器,并对HAProxy的架构有些困惑。如果我使用HAProxy平衡TCP连接,是否所有产生的流量都必须流经负载平衡器?如果是这样,其他解决方案(例如LVS甚至Nginx_tcp_proxy_module)是否会更合适?

6
AWS ElasticBeanstalk docker-thin-pool变满并导致将文件系统重新挂载为只读吗?
我无法弄清楚AWS如何在ElasticBeanstalk上设置其Docker``瘦池''以及如何填充它。我的docker精简池正在以某种方式填满并导致我的应用程序尝试写入磁盘时崩溃。 这是来自容器内部的: >df -h > /dev/xvda1 25G 1.4G 24G 6% 实际上,EBS确实分配了25GB的磁盘。1.6 GB是du -sh /返回的内容。 在EC2的外部,它足够无害地启动了...(通过lvs) LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert docker-pool docker twi-aot--- 11.86g 37.50 14.65 但是,文件系统将很快重新安装为只读。通过dmesg: [2077620.433382] Buffer I/O error on device dm-4, logical block 2501385 [2077620.437372] EXT4-fs warning (device dm-4): ext4_end_bio:329: …

3
负载平衡DNS服务器:UDP / TCP
我被要求在数据中心重建我们的负载平衡基础架构。 最初的请求是对FTP服务器进行负载平衡。我尝试使用当前的负载均衡器(Piranha / LVS)进行此操作,但没有启动并运行它。不仅仅是因为几乎没有该软件的文档。由于Piranha被认为已弃用,因此我HAProxy尝试了几天后又去了,花了很少的时间完成了这项工作Piranha。 因此,我已经准备好FTP负载平衡(被动模式)。现在,我被要求更换数据中心中的整个Piranha负载均衡器。在当前的Piranha配置中,我们有几个Web服务器,IIS服务器.... aaa和DNS。 不,这是东西: HAProxy似乎是常用的LB,但是它不能处理UDP load balancing。这真是令人讨厌,因为我喜欢这种方式HAProxy。因此,我在Google上搜索了很多东西,并遇到了一些问题。大多数人似乎都将LVS其用作DNS(TCP / UDP)的LB。一些使用dlbDNS,一些使用lbnamed,还有一些使用netfilter / iptables。 因为我想坚持使用HAProxyFTP,HTTP和IIS服务器,所以我对与并列使用它感到困惑LVS。 要求: 具有故障转移的 2 个LB实例具有故障转移的2个DNS服务器(已存在)具有 多个后端服务器(http,应用程序等) 问题: 可能吗?DNS服务器上的UDP负载平衡是否必要?是否有任何资源可以向我展示如何入门?还是有一个LB解决方案不仅能够处理TCP / HTTP,而且还能够处理UDP负载平衡? PS: LB解决方案应为非硬件和开源/ GPL许可/不收费。 任何帮助或导致各自的资源非常感谢!

2
持久性负载平衡最佳做法
我们运行一个Web应用程序,为越来越多的客户端提供Web API。首先,客户通常是家庭,办公室或其他无线网络,这些用户将分块的http上传文件提交到我们的API。现在,我们开始涉足更多的移动客户端。文件的大小从几千到几千个不等,分解成较小的块,然后在我们的API上重新组合。 当前的负载平衡是在两层上执行的,首先,我们使用轮询DNS来为api.company.com地址通告多个A记录。在每个IP上,我们都托管一个Linux LVS:http : //www.linuxvirtualserver.org/,负载均衡器查看请求的源IP地址,以确定将连接传递给哪个API服务器。此LVS盒配置有心跳信号,以相互接管外部VIP和内部网关IP。 最近,我们看到了两个新的错误情况。 第一个错误是客户端从一个LVS振荡或迁移到另一个中载。这进而导致我们的负载平衡器失去对持久连接的跟踪,并将流量发送到新的API服务器,从而破坏了两个或更多服务器之间的分块上传。我们的意图是使api.company.com(我们将其设置为1小时)的Round Robin DNS TTL值由下游缓存名称服务器,OS缓存层和客户端应用程序层使用。我们上载的大约15%会发生此错误。 我们看到的第二个错误要少得多。客户端将启动到LVS盒的流量,并路由到它后面的realserverA。此后,客户端将通过LVS框无法识别的新源IP地址进入,从而将正在进行的流量也路由到该LVS后面的realserverB。 鉴于上文所述的架构,我想知道人们在使用更好的方法后会遇到什么经验,该方法可以使我们更优雅地处理上述每种错误情况? 编辑5/3/2010: 这看起来像我们需要的。源IP地址上的加权GSLB哈希。 http://www.brocade.com/support/Product_Manuals/ServerIron_ADXGlobalServer_LoadBalancingGuide/gslb.2.11.html#271674

2
用于在Ubuntu中进行负载平衡的IPIP隧道
我在gentoo负载平衡器和gentoo真实服务器之间设置了ldirectord / heartbeat HA。由于主机的限制,我可以通过ipip隧道进行负载平衡。 我在gentoo真实服务器上具有以下设置: (附加到...的末尾)/etc/conf.d/net iptunnel_tunl0="mode ipip" config_tunl0=( "xxx.xxx.xxx.xxx netmask 255.255.255.255" "yyy.yyy.yyy.yyy netmask 255.255.255.255" "zzz.zzz.zzz.zzz netmask 255.255.255.255" ) 那些xxx / yyy / zzz IP是我共享的IP地址。 “ ip address show”显示如下: 4: tunl0: <NOARP,UP,LOWER_UP> mtu 1480 qdisc noqueue state UNKNOWN link/ipip 0.0.0.0 brd 0.0.0.0 inet xxx.xxx.xxx.xxx/32 scope global tunl0 inet yyy.yyy.yyy.yyy/32 scope …
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.