Questions tagged «cluster»

一个计算机集群由一组松散连接的计算机组成,这些计算机可以一起工作,因此在许多方面都可以将它们视为一个系统。

4
使Docker应用程序写入标准输出
我正在按照12要素咨询意见部署第3方应用程序,其中之一是应将应用程序日志打印到stdout / stderr:然后集群软件可以收集它。 但是,该应用程序只能写入文件或syslog。我该如何打印这些日志?

2
nginx自动故障转移负载平衡
我正在使用nginx和NginxHttpUpstreamModule进行负载平衡。我的配置非常简单: upstream lb { server 127.0.0.1:8081; server 127.0.0.1:8082; } server { listen 89; server_name localhost; location / { proxy_pass http://lb; proxy_redirect off; proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; } } 但是使用此配置时,当2个后端服务器之一关闭时,nginx仍将请求路由到该服务器,这将导致一半时间超时:( 是否有任何解决方案可以使nginx在检测到服务器宕机时自动将请求路由到另一个服务器。 谢谢。

4
如何预签名木偶证书?
此问题已从堆栈溢出迁移,因为可以在服务器故障时回答。 迁移 9年前。 Puppet要求在受管理的客户端(puppet)和服务器(puppetmaster)之间提供证书。您可以在客户端上手动运行,然后转到服务器上以对证书进行签名,但是如何针对群集/云计算机自动执行此过程?
26 cluster  puppet  cloud 

15
Windows 2008 / SQL Server群集最便宜的iSCSI SAN?
已锁定。该问题及其答案被锁定,因为该问题是题外话,但具有历史意义。它目前不接受新的答案或互动。 是否有适用于Windows Server 2008 / SQL Server进行故障转移群集的生产质量的iSCSI SAN? 到目前为止,我只看到过戴尔的MD3000i和惠普的MSA 2000(2012i),两者的价格都在6,000美元左右,而且磁盘配置最少。Buffalo(是的,我知道)有一个支持iSCSI的价格为1000美元的设备,但他们表示,该设备不适用于2008故障转移群集。 我对看到适用于生产环境中的故障​​转移但IO需求非常低的东西感兴趣。(例如,群集一个30GB的数据库。) 至于使用软件:在Windows上,StarWind似乎是一个很好的解决方案。但这实际上比购买硬件SAN要多花钱。(据我了解,只有企业版支持复制,这是3000美元的许可费用。) 我当时以为我可以使用Linux,例如DRBD + iSCSI target就可以了。但是,我还没有看到任何支持SCSI-3持久保留的免费或低成本iSCSI软件,而Windows 2008则需要该软件来进行故障转移群集。 我知道$ 6K根本不多,只是好奇地看看是否有实用的更便宜的解决方案。最后,是的,该软件价格昂贵,但是许多小型企业都可以使用MS BizSpark,因此Windows 2008 Enterprise / SQL 2008许可证是完全免费的。

2
将Docker卷存储在glusterfs中是一个好主意吗?
我目前正在考虑将我们的某些服务器和应用程序迁移到coreOS环境。我在这里看到的问题之一是持久性数据的管理,因为将容器移至新计算机时coreOS无法处理Docker卷。经过一些研究,我发现glusterFS声称是可以解决我所有问题的群集文件系统。 我当前的想法是:我有一个glusterFS容器,该容器在我的每台coreOS机器上作为特权容器运行,并公开一个存储,/mnt/gluster例如。在我Dockerfile的文件中,我指定所有卷都应安装在该路径上。 我考虑的下一件事是哪些容器应该获得自己的卷,哪些容器应该共享一个。例如,每个mysql容器都有自己的卷,因为它能够自己处理复制。我不想搞混。服务于同一网站的Web服务器将正确使用相同的卷来存储“用户上传的图像”等内容,因为它们无法复制这些数据。 有没有人尝试过这样的事情,或者我错过了什么?

1
Redis群集:(错误)已移动
我有一个具有以下节点的Redis集群: 192.168.0.14:6379 master (slots from 0 to 16383) 192.168.0.15:6379 slave (slots from 0 to 16383) 192.168.0.16:6379 master (without slots) 文档说,任何节点都可以将查询重定向到正确的节点。但是我无法从192.168.0.16:6379主节点重定向请求。这是我尝试过的: 192.168.0.16:6379> set myKey myValue (error) MOVED 16281 192.168.0.14:6379 192.168.0.16:6379> get myKey (error) MOVED 16281 192.168.0.14:6379 它既不写入也不读取。当我尝试从192.168.0.14:6379获取“ myKey”时,将显示以下内容: 127.0.0.1:6379> get myKey (nil) 我的要求出了什么问题?我正在使用Redis服务器3.2.5版

6
两台远程linux服务器之间大文件树的双向实时同步
大文件树的意思是大约20万个文件,并且一直在增长。不过,在任何给定的小时内,文件更改的数量相对较少。 双向是指更改可能在任一服务器上发生并且需要推送到另一服务器,因此rsync似乎不合适。 所谓远程,是指服务器都位于数据中心内,但在地理位置上却彼此远离。当前只有2台服务器,但是随着时间的推移可能会扩展。 实时而言,同步之间有一点延迟是可以的,但是似乎每1-2分钟运行一次cron似乎并不正确,因为在给定的小时内可能有很小一部分文件发生更改,更不用说分钟了。 编辑:这是在VPS上运行的,所以我可能只能在可以执行的内核级工作上受限制。另外,VPS的资源也不丰富,因此我回避需要大量内存的解决方案(例如Gluster?)。 什么是完成这项工作的最佳/最“公认”的方法?这似乎很常见,但是我还没有找到一种普遍接受的方法,这令人惊讶。(我正在寻求群众的安全。:) 我遇到过lsyncd来触发文件系统更改级别的同步。这似乎很聪明,尽管不是超级常见,而且我对各种lsyncd方法有些困惑。只是将lsyncd与rsync一起使用,但是由于rsync没有内存的概念,这似乎对于双向来说可能是脆弱的(例如-知道是否应该在B上删除A上的已删除文件还是在B上是新文件)应该复制到A)。 唇形看起来只是一个lsyncd + rsync的实施,对不对? 然后将lsyncd与csync2一起使用,就像这样:https : //icicimov.github.io/blog/devops/File-system-sync-with-Csync2-and-Lsyncd/ ...我倾向于这种方法,但是csync2有点古怪,尽管我确实对其进行了成功的测试。我最担心的是,我无法找到很多社区对此方法的确认。 这里的人们似乎非常喜欢Unison,但是似乎它不再处于活跃的开发中,并且不清楚它具有像lsyncd这样的自动触发器。 我已经看到Gluster提到过,但是对于我所需要的东西可能会过分杀了? 更新: fyi-我最终使用了我提到的原始解决方案:lsyncd + csync2。它似乎运行得很好,并且我喜欢将服务器非常松散地连接在一起的体系结构方法,这样每台服务器都可以无限期地独立运行,而不管它们之间的链接质量如何。

1
使用哪个消息传递层(心跳或Corosync)?
刚完成我对建立Web服务器集群的研究,而对于Pacemaker使用哪个消息传递层,我仍然不确定。我正在使用的服务器都是Fedora,因此这两层都可以通过YUM进行访问,它们都有据可查,并且据说可以与Pacemaker很好地协同工作。我一直无法找到对哪种更好的看法。是否有人在这两种方法上都有经验,并且还偏爱哪种更好?有没有更大的社区支持基础?一个比另一个稳定吗?还是这是一个任意决定?

4
ZFS集群文件系统可能吗?
是否可以创建ZFS集群?还是您需要使用由GlusterFS管理的UFS格式的池,使用ZFS的看上去丑陋的(至少对我而言)路线? 这个想法是看是否有可能扩展到ZFS应该能够毫不打扰地处理的Multi-Petabyte分布式存储。 任何指针,博客,帖子?

8
什么时候该为网站引入高可用性?
什么时候该为网站引入高可用性? 关于高可用性选项有很多文章。并不是很明显,但是何时才是从单服务器切换到高可用性配置的最佳时机。 请考虑我的情况: http : //www.postjobfree.com是24/7的网站,访问量很大:http : //www.similarweb.com/website/postjobfree.com 当前,我在单个服务器上运行它:IIS 7.0 Web服务器和SQL Server 2008都在同一硬件盒上运行。 偶尔(约一个月)〜5分钟的停机时间通常是由某些Windows Server更新所需的重新启动引起的。通常,停机时间是有计划的,发生在晚上。仍然令人不快,因为Google Bot和某些用户在夜间仍然活跃。 当前的网站收入约为每月$ 8K。 我考虑切换到两台服务器的配置(两台Web服务器的Web场和两台硬件服务器上托管的2台SQL Server的群集)。 优点: 1)高可用性(理论上没有停机时间)。即使其中一台服务器出现故障,另一台服务器也将接管。 2)没有数据丢失:如果没有SQL群集,则在硬件故障的情况下最多可能会丢失一天的数据(我们每天进行备份)。 缺点: 1)更加努力地设置和维护这种配置。 2)较高的托管成本。而不是每月约600美元,而是每月约1200美元。 您的建议是什么?

4
跨多个服务器或PXE与cfEngine / Chef / Puppet管理应用程序
我们有一个运行在几个(大约5个,并且将会增长)的盒子上的应用程序。所有机器的硬件都是相同的,理想情况下软件也应相同。到目前为止,我一直在手工管理它们,现在不再想要(静态IP地址,禁用所有必需的服务,安装必需的软件包...)。任何人都可以平衡以下选项的利弊,或提出更明智的建议吗? 1:分别在所有盒子上安装centos并使用Chef / cfengine / puppet管理配置。那样很好,因为我想找一个借口来学习使用其中一种应用程序,但是我不知道这是否是最佳解决方案。 2:使一个盒子完美并成像。通过PXE提供映像,每当我要进行修改时,都可以从新映像中重新启动包装盒。集群专家通常如何处理/ etc / sysconfig / network-scripts / ifcfg *文件中具有mac地址的问题?我们也使用infiniband,如果hwaddr错误,它也拒绝启动。这些可以在启动时正确生成吗? 我倾向于PXE解决方案,但是我认为使用munin或nagios进行监视会更加复杂。任何人都有这类问题的经验吗? 所有服务器中都装有SSD,并且功能强大且快速。 谢谢,马特

5
跨几个服务器的镜像文件系统
我正在寻找一种在多个Linux服务器上镜像或复制一个目录(或一个文件系统)的解决方案。理想的解决方案是允许所有服务器进行读写访问的解决方案。我还希望它具有弹性,如果其中一台服务器出现故障,其余服务器仍然可以正常工作,而不会丢失任何数据。 我一直在寻找一些解决方案: DRBD:块级复制,似乎有点过大; lsyncd:看起来很简单,但是我对性能有疑问; GlusterFS:看起来这将是一个不错的选择,但尚未弄清楚复制模式的工作原理。它会具有我要求的特性吗? 欢迎其他任何建议。

1
降级集群功能级别
我想尝试将Server 2012 Hyper-V服务器添加到当前群集中, 当前有2台服务器2016 Hyper-V服务器群集。 我必须能够添加第三个,因为我必须在集群上进行一些重新配置,我必须能够将两个VM迁移到新的2012服务器上,并将两个2016年服务器都移出集群,然后对其进行修复,然后添加他们回来。 当我尝试添加Server 2012服务器时,出现错误: 节点 Server.domain.com 错误 *无法将服务器“ Server.domain.com”添加到群集。将节点“ Server.domain.com”添加到群集“ ClusterName”时发生错误。 该节点无法加入群集,因为加入节点和群集中的其他节点具有不兼容的操作系统版本。若要获取有关群集的操作系统版本的更多信息,请运行“验证配置向导”或“ Test-Cluster Windows PowerShell” cmdlet 谷歌搜索此错误看起来像是因为集群功能级别为9,我想我可以得到8,所以我也许可以添加它。 但是,当前运行级别为9。 如何将群集功能级别从9降级到8?
12 hyper-v  cluster 

3
RabbitMQ-如何为零停机时间升级配置服务器?
仔细阅读docs和RabbitMQ in Action之后,创建RabbitMQ集群似乎很简单,但是升级或修补现有RabbitMQ集群似乎需要重新启动整个集群。 有没有一种方法可以将群集,铲斗,联合身份验证和负载平衡相结合,从而在不丢失队列或消息的情况下进行滚动升级,或者我错过了一些更明显的东西?

4
如何在2节点主动/被动linux HA起搏器群集中设置STONITH?
我正在尝试使用corosync和心脏起搏器设置主动/被动(2个节点)Linux-HA集群,以保持PostgreSQL数据库的正常运行。它通过DRBD和service-ip起作用。如果node1发生故障,则node2应该接管。如果PG在node2上运行并且失败,则相同。除了STONITH之外,其他一切都正常。 节点之间是专用的HA连接(10.10.10.X),因此我具有以下接口配置: eth0 eth1 host 10.10.10.251 172.10.10.1 node1 10.10.10.252 172.10.10.2 node2 Stonith已启用,我正在使用ssh-agent测试以杀死节点。 crm configure property stonith-enabled=true crm configure property stonith-action=poweroff crm configure rsc_defaults resource-stickiness=100 crm configure property no-quorum-policy=ignore crm configure primitive stonith_postgres stonith:external/ssh \ params hostlist="node1 node2" crm configure clone fencing_postgres stonith_postgres crm_mon -1 显示: ============ Last updated: Mon Mar …

By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.