Questions tagged «oom-killer»

3
Rsync在单个50 GB文件上触发了Linux OOM杀手
我在server_A上只有一个50 GB的文件,并将其复制到server_B。我跑 server_A$ rsync --partial --progress --inplace --append-verify 50GB_file root@server_B:50GB_file Server_B具有32 GB的RAM和2 GB的交换空间。它大部分是空闲的,应该有很多可用的RAM。它具有足够的磁盘空间。由于远程端已关闭连接,因此传输中止大约为32 GB。 Server_B现在已脱离网络。我们要求数据中心重新启动它。当我查看崩溃之前的内核日志时,我发现它正在使用0字节的交换空间,并且进程列表使用的内存很少(rsync进程被列为使用600 KB的RAM),但是oom_killer是变得疯狂,日志中的最后一件事就是杀死了metalog的内核读取器进程。 这是32位内核3.2.59(因此,任何进程都不能映射超过4 GB的内存)。 几乎就像Linux给缓存提供了比长期运行的守护程序更高的优先级。是什么赋予了??我该如何阻止它再次发生? 这是oom_killer的输出: Sep 23 02:04:16 [kernel] [1772321.850644] clamd invoked oom-killer: gfp_mask=0x84d0, order=0, oom_adj=0, oom_score_adj=0 Sep 23 02:04:16 [kernel] [1772321.850649] Pid: 21832, comm: clamd Tainted: G C 3.2.59 #21 Sep 23 02:04:16 [kernel] …
66 rsync  oom  oom-killer 

1
扩展Logstash(使用redis / elasticsearch)
在超过12个centos 5.8服务器的群集上,我使用本机logstash托运人部署了logstash,后者将发/var/log/*/*.log回中央Logstash服务器。 我们尝试使用rsyslogd作为托运人,但是由于rsyslogd的ImFile模块中存在错误,如果远程端不响应,则日志会堆积在内存中。 当前,我们使用Redis作为传输机制,因此logstash01已在本地运行redis,这些日志绑定到VLAN的IP。 因此,logstash-shipper在logstash01上发送到redis。logstash01发送给在单独进程中运行的Elasticsearch。 这就是我们所看到的。Elasticsearch有141个被阻止的线程。跟踪elasticsearch父级显示: futex(0x7f4ccd1939d0, FUTEX_WAIT, 26374, NULL 这是来自Elasticsearch的Jstack 这是logstash的jstack 因此,..昨晚,某些Web服务器(日志被logstash拖尾)发疯了,平均负载超过500。 在logstash01上,有这个 Dec 19 00:44:45 logstash01 kernel: [736965.925863] Killed process 23429 (redis-server) total-vm:5493112kB, anon-rss:4248840kB, file-rss:108kB 所以OOM杀手杀死了Redis的服务器,然后指原木堆放在内存里面是已上市的东西..而服务器上莫名其妙意味着阿帕奇获取其短裤的扭曲。(坦率地说,我不确定如何,我只是假设它在拖尾日志)。 这是我关于事件如何发生的理论: 我们的流量高峰。 生成了大量日志。 这些存储在Redis中,因为logstash / elasticsearch似乎每秒只能处理300-400个新事件。 Redis已完全填满,OOM杀手无意识地宰了它。 Redis停止接受新项目。 现在,项目开始在远程主机端堆积。 一切都疯了。Apache停止接受请求。(为什么?)。 问题是: 如果只有日志拖尾,为什么apache会发疯。是因为拖尾的东西阻碍了Apache的写作? 有没有使弹性搜索更快/更好/具有弹性的明智方法? 是否有一种明智的方法可以使Redis具有弹性并且不会因为OOM而死亡 我设置的方式是否存在根本缺陷,还是每个人都有此问题? -编辑- @lusis的一些规格。 admin@log01:/etc/init$ free -m total used …

4
Linux oom情况
我有连续的oom&panic情况无法解决。我不确定系统是否已填满所有RAM(36GB)。为什么这个系统触发了这种oom状态?我怀疑它与32位linux系统中的lowmem区域有关。我该如何分析内核崩溃和oom-killer中的日志? 最好的祝福, 内核3.10.24 Dec 27 09:19:05 2013 kernel: : [277622.359064] squid invoked oom-killer: gfp_mask=0x42d0, order=3, oom_score_adj=0 Dec 27 09:19:05 2013 kernel: : [277622.359069] squid cpuset=/ mems_allowed=0 Dec 27 09:19:05 2013 kernel: : [277622.359074] CPU: 9 PID: 15533 Comm: squid Not tainted 3.10.24-1.lsg #1 Dec 27 09:19:05 2013 kernel: : [277622.359076] …

2
在OOM Killer日志中查看完整的程序命令行参数
是否可以在OOM Killler日志中查看完整的程序命令行参数?我现在在/ var / log / syslog中看到的是 Memory cgroup out of memory: Kill process 29187 (beam.smp) score 998 or sacrifice child Killed process 29302 (cpu_sup) total-vm:4300kB, anon-rss:76kB, file-rss:272kB beam.smp invoked oom-killer: gfp_mask=0xd0, order=0, oom_score_adj=0 beam.smp cpuset=/ mems_allowed=0-3 我的机器上有很多beam.smp进程,要找出被OOM杀手杀死的特定进程不是很方便。
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.