Questions tagged «load-balancing»

负载平衡处理涉及使用多个系统来处理高要求的技术,从而平衡多个系统之间的负载。是否使用专用硬件处理网络和服务器负载平衡问题。

6
Windows替代HAProxy
已锁定。该问题及其答案被锁定,因为该问题是题外话,但具有历史意义。它目前不接受新的答案或互动。 似乎没有与已发布的问题类似的问题,因此我将继续询问。 我正在开发一个项目,该项目可以从拥有两到四台服务器处理后端Web服务的传入请求中受益。该服务不需要SSL,但确实需要支持偶尔长时间运行的进程(最长120秒)。 该项目目前没有购买硬件负载平衡解决方案的资金。 以前,我使用HAProxy作为解决方案,发现它非常简单明了。Windows是否有类似的产品(服务器2003或2008)提供类似的配置选项并作为轻量级服务运行? 由于无法控制的原因,我无法设置Linux机器(物理或虚拟),因此我正在寻找可以在Windows机器上部署的行为。 我只能找到似乎属于此类的Perlbal。为了不让自己保持开放态度,我会相信唯一的答案。

3
使用负载均衡器进行粘性会话有何不利之处?
我们有一个运行良好的IIS7计算机的Web场。在它们前面是F5 Big-IP硬件负载平衡器,也可以正常工作:) (来源:www.f5.com) 目前,我们正在使用ASP.NET State Service来处理OutProc状态。当您具有Web场来维护任何类型的会话信息时,这是必需的。 我想知道我们是否可以在F5 Big-IP上进行粘性会话,从而从OutProc切换回InProc?如果是这样,这有什么缺点?我知道InProc与OutProc的缺点,因此不必担心会解释这一点。我对使用F5 Big-IP进行粘性会议的利弊更为感兴趣。 任何人都可以阐明和/或体验吗?

2
仅当服务器关闭时,HAProxy开关
假设我有2台服务器-SA和SB。是否可以将HAProxy配置为像这样工作: 所有连接均进入SA-> SA断开-> HAProxy将所有连接切换至SB->直到SB不断开-没有连接进入SA,即使再次恢复连接-> SB断开-> HAProxy切换至SA。 。 简而言之,我希望HAProxy仅在当前服务器出现故障时才进行切换。也许我应该使用HAProxy以外的其他工具?

3
在负载均衡器后面使用ngnix将HTTP重写为https
我正在使用Rackspace负载平衡器,该平衡器使我可以在管理面板中设置ssl密钥/ pem。一切正常,我可以同时使用http和https协议。但是,如果我尝试使用以下方法将http重定向到https: server{ listen *:80; server_name mydomain.com www.mydomain.com; rewrite ^ https://mydomain.com$request_uri? permanent; ...我得到一个重定向循环。我知道我没有监听端口443,但这是因为负载均衡器为我处理了该端口。我也尝试将重写包装if ($scheme ~* http){成无效。 我的问题的另一部分是,我想从网址中删除www,我可以一次重写吗?上面的改写是否也应该解决这个问题? 谢谢你的帮助!


5
如何为高使用率的ASP.NET应用程序负载均衡SQL Server 2008?
假设您有一个使用ASP.NET和IIS 7的成功Web应用程序。它会生成许多对SQL Server 2008数据库的调用,并且预计将以99.9%的正常运行时间对公众开放(停机时间为8小时,每分钟45分钟)年)。 我们的目标是: 在服务器上安装Windows Update,而不会导致客户停机 防止由于超时而导致服务器上的硬件崩溃使ASP.NET应用程序变慢 与ASP.NET应用程序的负载平衡不同,SQL的负载平衡似乎要困难得多。为使用Microsoft堆栈的Micro-ISV设置简单的负载平衡SQL Server 2008 R2群集的最佳实践是什么?

7
如何在N台apache服务器之间平衡传入的Web流量?
我正在寻找使用诸如Heartbeat / Squid / Varnish / etc之类的东西来平衡内部apache实例之间的传入流量。这必须是软件,而不是硬件,因为我的所有东西都在VPS上运行。我在这方面没有很多经验,所以很抱歉如果我滥用术语并选择错误的软件包。 我起草了一些东西来说明我的追求。绿色部分是初始设置的样子,蓝色部分是由于流量增加而添加更多apache实例后的样子。这可能不是这些东西的工作方式,但理想情况下,我会将平衡器的IP添加到域的DNS中。然后,均衡器将查看每个apache实例上有多少个连接(通过内部IP或永恒IP的一些配置列表),并平均分配连接。蓝色是第二个平衡器,因为我确信平衡器有时也会需要帮助。 也许我要解决这个错误,但是我正在寻找有关“平衡器”应该是什么的信息以及有关如何设置它们的最佳实践的帮助。 任何帮助都会很棒。

6
跨多个静态文件服务器进行负载平衡以实现带宽分配的最佳方法?
首先,我将向您解释我的情况。我正在运行一个相当受欢迎的网站作为附带项目,因此我无法真正投入大量资金。我目前只有一台服务器,前面有HAProxy,向Apache发送正常请求,向Lighttpd发送所有静态文件请求。这非常有效,因为所有php和post请求均由Apache处理,而所有图像均发送到速度更快的Lighttpd(该站点主要是图像,因此这很重要)。不必设置一个子域来提供图像会很好,因为短网址也非常重要,因此,我之所以使用HAProxy。 我发现一个托管服务提供商提供了我一直在使用的非常便宜的未计量带宽,当我开始提供100mbs网卡可以处理的最大带宽时出现了问题,因此需要第二台服务器。 我在选择方案时考虑了很多,因此我将向您解释每个方案。希望您可以提供一些见解,以了解哪个对我来说是最佳选择,或者也许还有另一个我还没有想到的选择。 要求: 甚至带宽分配也是必须的。我有一台功能强大的服务器,因此无法扩展。我需要扩展以获取更多带宽。 短网址。我真的不会设置像img.example.com这样的子域来提供图片。example.com/image.jpg是现在的样子,也是我真正希望它留下的样子。但是,如果没有其他办法,我就会理解。 处理请求的最直接的服务器将非常好,但不是必须的。要记住的事情。 HAProxy进行负载平衡: 因为我已经在使用HAProxy,所以这真的很容易。但是,我认为问题在于分配带宽时。我对此可能是错的,但是HAProxy不会将请求发送到服务器,服务器在该服务器上对其进行处理,然后再通过HAProxy将其发送回客户端吗?因此,所有流量都通过负载平衡器返回,导致它使用的带宽与所有服务器的总和一样多。 DNS轮循: 这可能是我最好的选择。只需跨多个服务器复制网站,然后执行我现在正在做的事情。不利的一面是,如果一台服务器出现故障,客户端仍然会发送给它。我还需要跨多个服务器复制站点。我有点希望我可以有一个主服务器来处理除静态文件以外的所有内容,然后再有几个静态文件服务器。我还读到,这有点像“穷人的负载平衡”,最好有一些更复杂的东西。 服务器直接返回: 看起来确实很复杂,但可能是一个不错的选择。我仍然可以将某些URL发送到某些服务器吗?就像现在使用HAProxy一样,每个以正确的文件扩展名结尾的URL都将发送到Lighttpd,而其他扩展名将发送到Apache。所以我需要类似的东西。像一样,所有php请求都由运行平衡软件的同一台服务器处理,而所有jpg请求都发送到多个服务器。 理想情况下,如果HAProxy支持Direct Server Return,那么我的问题将得到解决。我也不想使用CDN,因为它们确实很昂贵,而且毕竟这只是一个附带项目。 你明白我的问题吗?让我知道我是否解释不正确或您需要更多信息。

1
如何设计/确保Web服务器的高可用性?
1&1互联网为我提供了专用服务器,该服务器在RAID1配置中有两个硬盘。我希望这会足够好,好像一个磁盘发生故障,另一个磁盘可以接管直到损坏的磁盘被更换。但是,在两种情况下,两个硬盘驱动器都发生了故障(或1&1不能胜任,并以错误的顺序更换了它们),这引起了严重的问题。 我想知道什么是确保在专用计算机上运行的Web服务器的高可用性的最佳方法?到目前为止,我有: 具有运行IIS 7,SQL Server + Web App软件的2x500GB HDD的专用服务器 EaseUS服务器备份每天运行两次 无负载均衡器 我的问题是,如果机器再次出现故障,则平均需要3天1&1来恢复机器。我承受不起这样的损失。他们没有为专用服务器提供负载平衡器,但是也许可以通过不确定的软件来完成。 我唯一的选择是完全删除专用服务器,并使用作为VMWare计算机的“云”服务器。他们声称其强大,因为基础架构非常庞大,以至于任何硬件问题都不会对客户产生影响。但是我讨厌丢失专用服务器的想法,因为我发现它们更易于配置。 什么是执行此操作的好方法?也就是说,在很少中断的情况下始终可以使用我的网站。我的预算大约是每月$ 150。我的服务器目前的费用约为$ 60pm。

1
尽管后端服务正常,但Google Cloud http负载均衡器仍返回502
我已经配置了一个GCE http(s)负载均衡器,以将流量定向到2个后端:-默认后端-另一个具有单独的主机/路径规则的后端(<host>:/*) 两个后端都存在于同一实例组上-运行两个公开不同NodePort的kubernetes服务的容器集群。 实例组具有两个命名端口,每个公开的NodePort都一个。 尽管两个后端都报告运行状况良好,但是对第二后端的所有请求都返回502。 服务本身不是问题-如果我将服务切换到默认的第二后端,则可以正常工作。 注意:自首次发布以来,我已经对该说明进行了相当大的更新/简化,因为我可以用更简单的配置重现该问题。

3
如何对负载均衡器进行负载均衡?
我将要将单服务器单数据库Web应用程序转换为物理分布的高可用性配置,其中服务器位于两个物理位置(目前)。现在,显然,我需要一个负载平衡器(在这种情况下更像是反向代理,但为简单起见,我将其称为“负载平衡器”),它将请求的路由mywebsite到node1.mywebsite或node2.mywebsite。但是,我假设如果负载均衡器出现故障,高可用性服务器将无用。因此,按照我的思路,我实际上需要两个负载均衡器,每个位置一个。但是,我仍然希望有一个外部访问点,因此我需要一个用于负载均衡器的负载均衡器,而该负载均衡器又需要在各个位置之间进行均衡……这种情况一直存在。 那我的推理怎么了?假设每个物理位置都可以长时间断开电源,那么在实践中如何确保负载均衡器的高可用性? PS:我意识到我对HA和负载平衡之间区别的理解充其量只是中等水平。我想要的是一台可用的服务器,即使一个位置的电源出现故障也是如此。感谢您的理解。

3
Nginx应该位于HAProxy的前面还是相反?
我在网站基础架构设计方面的经验很少。我知道这可能取决于具体情况。该网站应该: 1)需要某些页面(例如登录页面)的HTTPS支持,而其他页面只是HTTP页面。 2)需要多个Web服务器,因此需要一些负载平衡。 3)需要HTTP缓存和压缩以提高性能。 4)一些请求(例如图像上传)应路由到专用后端服务器。因此,需要基于URL的平衡。 我知道NginX和HAProxy都是不错的开源反向代理和/或负载均衡器。由于HAProxy不支持SSL,因此Nginx的负载平衡不如HAProxy。我都吃 那么,我应该将Nginx(作为反向代理)放在HAProxy(作为负载均衡器)的前面还是相反? 谢谢

1
创建具有两个Internet连接和一个LAN连接的多宿主Linux负载均衡器
好的,...这可能已经回答了,不幸的是,我没有找到任何看起来像是解决方案的东西。 Ive查看了这些页面,它们提供了一些有用的信息,但没有完整的解决方案: 在Linux上对多个ISP连接进行负载平衡和NAT处理 两个Internet连接和1个NIC,可能吗? Linux拆分访问(带有负载平衡的多个Internet连接) linux防火墙+负载平衡ISP连接 我将使用Debian 8,Ubuntu 16.04 Desktop或Ubuntu 16.04 Server(说实话,最有可能是Debian)。 好,所以我将安装三个NIC,两个千兆位,以及板载100 mbps的LAN连接。ISP连接将通过两个NIC上的PPPoE身份验证使用千兆位LAN卡(如果可能的话,否则我将在DSL调制解调器上采用非桥接模式)。并且两个网络都将分配有一个静态IP。当前(将更改)主连接有五个一组。我需要将来自这些IP地址之一的流量路由到网络上的适当服务器。 这是我的问题: 我该如何设置?我是否使用NATing,IP Chan,IP伪装,路由等...? 如何将从外部进入系统的流量路由到网络上的特定IP地址? 请放心,这是我第一次尝试过类似这样的事情:)。 编辑1 忘记添加网络拓扑: 编辑2 刚刚意识到一些事情...为了进行PPPoE身份验证,我将不得不在特定接口上强制对凭据进行身份验证。怎么做? 我在这里发布了这个问题: 创建具有两个Internet连接和一个LAN连接的多宿主Linux负载均衡器 更新1 仍然无法使多跳循环机制正常工作。我尝试遵循以下站点中概述的步骤,但没有走运: 在Linux上对多个ISP连接进行负载平衡和NAT处理 Linux-双Internet连接/负载平衡 HOWTO:Linux多路由 我或者不断收到一条消息,指出该文件已经存在或设备无效。这是/是我的设置/信息 IFCONFIG eth0 Link encap:Ethernet HWaddr ec:08:6b:04:8e:ac inet addr:172.16.0.2 Bcast:172.16.0.255 Mask:255.255.255.0 inet6 addr: fe80::ee08:6bff:fe04:8eac/64 Scope:Link UP BROADCAST RUNNING MULTICAST MTU:1500 …

2
Kubernetes-我可以避免使用GCE负载均衡器来降低成本吗?
我正在使用Gitlab-CI在GCE上部署Kubernetes集群。我想将成本降到最低-这是我当前的设置: 节点在3个f1-micro实例上运行 运行Traefik带有ServiceType的系统PodLoadBalancer 已配置通配符DNS 1个postgres 豆荚 1个ingress为Traefik配置的Web服务器Pod 我想减少部署成本。大部分成本都由GCE负载平衡器承担。有没有一种方法可以使用公共IP地址代替GCE上的负载均衡器?如果是这样,我可以利用分配给群集的IP地址(而不是保留静态IP)吗? 换句话说,是否有一种方法可以在不使用负载均衡器的情况下使用GCE将临时ip绑定到Kubernetes服务? 我还有其他可以改变的配置可以降低GCE的总体成本吗?

2
当服务器超出负载均衡器时发出警报
我们在许多环境中都有许多站点。许多环境使用两个Web服务器(有时是两个应用程序服务器)来实现负载平衡。在过去的两个月中,有两次我们无意中将服务器从负载均衡器中取出。几天后,当第二台服务器被取出并且站点完全关闭时,这给我们带来了困扰。在这两种情况下,问题都被发现并迅速纠正,但是它使我相信,当服务器超出负载均衡器时,我们需要发出警报。我们的常规警报在这里不起作用,因为在这两种情况下,服务器上的网站都已启动并且正在响应,但它不在LB中。 可能可以在负载均衡器本身上设置警报,但是它们由我们的托管服务提供商管理,处理它们可能会很麻烦。 我的想法是要有一个应用程序,它每15分钟扫描一次服务器日志,并在每小时的唯一身份访问者数量降至某个阈值以下时发送一封电子邮件。听起来并不是很难编写,但是似乎已经有一个标准的第三方工具已经按照这些原则进行了某些工作。 如果重要的话,我们使用Windows,ASP.NET,IIS。 建议使用一种工具来在网站未受到点击时发出警报?

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.