Questions tagged «lsyncd»

6
两台远程linux服务器之间大文件树的双向实时同步
大文件树的意思是大约20万个文件,并且一直在增长。不过,在任何给定的小时内,文件更改的数量相对较少。 双向是指更改可能在任一服务器上发生并且需要推送到另一服务器,因此rsync似乎不合适。 所谓远程,是指服务器都位于数据中心内,但在地理位置上却彼此远离。当前只有2台服务器,但是随着时间的推移可能会扩展。 实时而言,同步之间有一点延迟是可以的,但是似乎每1-2分钟运行一次cron似乎并不正确,因为在给定的小时内可能有很小一部分文件发生更改,更不用说分钟了。 编辑:这是在VPS上运行的,所以我可能只能在可以执行的内核级工作上受限制。另外,VPS的资源也不丰富,因此我回避需要大量内存的解决方案(例如Gluster?)。 什么是完成这项工作的最佳/最“公认”的方法?这似乎很常见,但是我还没有找到一种普遍接受的方法,这令人惊讶。(我正在寻求群众的安全。:) 我遇到过lsyncd来触发文件系统更改级别的同步。这似乎很聪明,尽管不是超级常见,而且我对各种lsyncd方法有些困惑。只是将lsyncd与rsync一起使用,但是由于rsync没有内存的概念,这似乎对于双向来说可能是脆弱的(例如-知道是否应该在B上删除A上的已删除文件还是在B上是新文件)应该复制到A)。 唇形看起来只是一个lsyncd + rsync的实施,对不对? 然后将lsyncd与csync2一起使用,就像这样:https : //icicimov.github.io/blog/devops/File-system-sync-with-Csync2-and-Lsyncd/ ...我倾向于这种方法,但是csync2有点古怪,尽管我确实对其进行了成功的测试。我最担心的是,我无法找到很多社区对此方法的确认。 这里的人们似乎非常喜欢Unison,但是似乎它不再处于活跃的开发中,并且不清楚它具有像lsyncd这样的自动触发器。 我已经看到Gluster提到过,但是对于我所需要的东西可能会过分杀了? 更新: fyi-我最终使用了我提到的原始解决方案:lsyncd + csync2。它似乎运行得很好,并且我喜欢将服务器非常松散地连接在一起的体系结构方法,这样每台服务器都可以无限期地独立运行,而不管它们之间的链接质量如何。

2
流浪者同步的文件夹不区分大小写
对于我们的Web堆栈,我们正在从Windows Server迁移到CentOS。为了促进开发,我们利用Vagrant在本地运行CentOS VM。我们正在使用Vagrant的“ 同步文件夹”功能,以允许开发人员在其主机上使用他们喜欢的IDE,但是我们发现此设置缺少一个关键功能:文件系统区分大小写。 VM内部的同步文件夹显然具有主机文件系统的属性,因此,如果我是从Windows计算机甚至OSX进行开发的,则文件系统不区分大小写。这是一个大问题,因为我们的生产服务器将是纯CentOS,并且其文件系统将区分大小写。 区分大小写是我们想要拥有本地VM的主要原因之一。我们要防止“它在我的机器上有效!” 我们已经考虑或尝试过的一些解决方法: 使用lsyncd从无业游民的共享同步到VM中区分大小写的位置 主机上更新文件似乎不会在lsync侦听的VM中生成事件 在主机上创建区分大小写的分区 (不适用于Windows) 使用桑巴舞 这可能是一个选择,但我们尚未对其进行审核。 有没有更好的办法?请注意,我们有使用Windows,OS X和Ubuntu的开发人员,并且该解决方案需要在任何地方都可以使用。

4
GlusterFS是保持Web服务器同步的好选择吗?
我有2个Web服务器,并且有机会在此过程中添加更多服务器。现在,我使用lsyncd + csync2使这些服务器保持同步。由于所有文件都在两台服务器上(不需要网络访问权限才能在本地打开文件),因此在性能方面明智地工作,但是在其他情况下效果不是很好。 一个示例是,如果我删除服务器1上的文件,然后立即将新文件上载到具有相同名称的服务器1。然后,该文件将同时从服务器2中删除,导致服务器1上新上载的文件被删除,因为服务器2将删除事件发送到服务器1上以完成“更新圈”。 我不禁想到,必须有一种更好的方法来保持服​​务器同步。我一直在查看GlusterFS,但不建议使用将所有文件复制到所有服务器的设置。但是,我在这些服务器上运行像Drupal这样的CMS系统。这样的CMS系统通常会打开很多文件,而我担心太多的网络流量无法容纳这些文件会降低请求的速度。 考虑用设置为将所有文件复制到所有节点的GlusterFS替换lsyncd + csync2是一个好主意,还是一个坏主意?
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.