Questions tagged «limit»

通过一个进程或一组进程来限制资源的使用(内存,磁盘空间,CPU时间,打开的文件,网络带宽等)。


2
/etc/security/limits.conf不适用
我有/etc/security/limits.conf,似乎没有被应用: a soft nofile 1048576 # default: 1024 a hard nofile 2097152 a soft noproc 262144 # default 128039 a hard noproc 524288 a我的用户名在哪里,当我运行ulimit -Hn和时ulimit -Sn,它显示: 4096 1024 内容中只有一个其他文件/etc/security/limits.d: scylla - core unlimited scylla - memlock unlimited scylla - nofile 200000 scylla - as unlimited scylla - nproc 8096 我还尝试将这些值附加到/etc/security/limits.conf然后重新启动,然后执行以下操作: …
11 limit  ulimit 

2
如何优雅地解决此内存问题?
我有一台带有交换分区的标准Linux(Debian测试)笔记本电脑。 我做了很多实验。其中一些确实非常消耗内存,Linux默认情况下的行为方式对我来说是个问题...让我们举一个愚蠢的例子: 坐在笔记本电脑前 打开一个终端 类型python,然后a = [0]*100000000 现在很有可能您没有足够的RAM来处理这个大列表。Linux将先填充RAM,然后进行交换,几分钟后,OOM杀手将被触发并杀死(几乎)随机服务,如果希望您在适当的时候按Ctrl + C python,并且如果终端仍然有重点,计算机将再次变得敏感。 我想强制执行一些内存限制,以避免不必要的交换,并拒绝给进程分配比我(在RAM中)更多的内存的权利。如果内存需求低于某个限制或由root要求,则只需杀死除root以外的任何用户最耗费内存的进程。 ulimit -Sv [mem] 我在后面听到! 呵呵!“ cgroups通过使用cgexec!” 有人在第一行说! 是的,您是对的:这些确实是非常好的解决方案。但: 它们不适用于整个系统 限制是按过程设置的 限制是静态的,不考虑可用RAM(AFAIK)的实际数量 这里和那里,他们说这些是不是真的很好地解决执行难的限制。 我想要的是内核说:“您属于用户foo(不是root),您使用了大量内存,而我们将用光内存。抱歉,老兄……现在就死了!” 或者:“您到底在干什么?您需要x MB,只有y MB可用。是的,SWAP是空的,但是您不打算使用SWAP来完成您的工作,是吗?不,我说不!你没有记忆!如果你坚持下去,你会死的!
10 memory  limit  cgroups  ulimit 

5
Linux中允许的最大最大打开文件数
Linux中可以配置的最大打开文件数量有(技术上或实践上)限制吗?如果将其配置为非常大的数量(例如1-100M),会产生一些不利影响吗? 我在这里考虑服务器的使用,而不是嵌入式系统。使用大量打开文件的程序当然会占用内存并且速度很慢,但是如果将限制配置为比必要的要大得多(例如,仅由配置消耗的内存),我会对不利影响感兴趣。

1
您如何增加MAXSYMLINKS
在python脚本中,我正在创建一堆链接在一起的符号链接。 例如:link1-> link2-> link3-> .......-> somefile.txt 我想知道如何将符号链接的最大数量更改为大于20?
10 linux  symlink  limit 

1
ZFS的极限背后有什么意义?
根据Wikipedia所述,ZFS具有以下限制: 最高 体积大小:2560000个亿yobibytes(2个128字节) 最高 档案大小:16 EB(2 64字节) 最高 文件数: 每个目录:2 48 每个文件系统:无限制 最高 文件名长度:255个ASCII字符(对于多字节字符编码(如Unicode)较少 为什么会有这些限制?是什么在内部限制了这些事情?为什么ZFS在理论上没有无限的卷大小或文件名长度等等?
10 filesystems  zfs  limit 

1
是否必须在每次引导时设置cgroup中的进程?如果是这样,如何坚持下去?
我正在阅读有关使用cgroup设置进程限制的问题的答案。给定的样本设置了流程的限制(在示例中,sshd)。在答案中,过程的PID是手动设置的。对于我的目的,这将是不可接受的,我希望从给定应用程序启动的进程始终设置限制,无论它们何时启动,也不受启动多少此类进程的限制。 也许从示例中尚不清楚这将如何发生,因此也欢迎提供清晰的解释或链接。内核cgroups.txt中的示例似乎使用与上面已经给出的模型相同的模型。


2
找到实际最大参数列表长度的规范方法是什么?
在ARG_MAX之后,新进程的最大参数长度似乎ARG_MAX在运行Ubuntu 12.04的Mac Mini 3,1上错误地(或至少是模棱两可)定义了: $ getconf ARG_MAX # arguments 2097152 $ locate limits.h | xargs grep -ho 'ARG_MAX[ \t]\+[0-9]\+' | uniq | cut -d ' ' -f 8 131072 实际的限制似乎介于以下两者之间: $ cd "$(mktemp -d)" $ touch $(seq 1 131072) && find . -mindepth 1 -printf x | wc -c && …

1
ulimit -n和/ proc / $ PID / limits之间的区别
在Linux中,存在打开文件限制。我可以ulimit -n用来查看打开文件的限制,默认为1024。然后,我还可以通过查看/ proc / $ PID / limits来查看每个进程打开文件的软/硬限制。我看到软= 1024和硬= 4096。 我想知道这两个输出之间有什么区别? 此外,这样做setRlimit(),并getRlimit()适用于全系统或每个进程?
9 limit 

1
您可以限制基于tmpfs的ramdisk的带宽吗?
我使用tmpfs创建了一个ramdisk,如下所示: sudo mount -t tmpfs -o size=1024m tmpfs /myramdisk 我一直在研究cgroup blkio子系统的带宽限制“ read_bps_device”和“ write_bps_device”,但它们似乎需要您要限制访问的块设备的主要和次要数量。 有什么方法可以实现与内存tmpfs ramdisk类似的带宽限制? 更新:我发现了一种回旋的黑客方式来实现这一目标。我首先将nfs导出ramdisk挂载。然后nfs将它通过环回安装到同一台计算机上。然后,我使用linux网络流量整形来设置带宽限制。这似乎提供了我所需要的。我正在执行一些测量,以了解这种丑陋的分层带来的损失。我将在几天后更新有关该信息。


2
如何在Debian中规避“打开文件太多”
如果我想一次查看apache2服务器的所有相关日志文件,请使用 tail -f /var/kunden/logs/*log /var/kunden/logs/*log /var/log/apache2/*log |grep -v robots|grep -v favicon 但是由于这些文件现在太多了,所以我想增加该限制。 如何在一个ssh会话中增加它?以及如何在全球范围内将其增加? 我可以看到我的机器上打开的文件限制为1024: ulimit -n 1024

2
Linux支持通过SSH同时登录多少用户?
我知道Linux支持同时登录多个用户。 但是,可以同时登录Linux的最大用户数量是多少? 我看到有有69个tty文件(ttyn或ttysn,其中n是一个整数,比如tty0,tty1,tty2...)在我的/dev目录中。我认为这些文件是外壳。因此,我认为该Linux系统仅支持同时登录的69位用户。 我的想法正确吗?如果我的假设是错误的,请说明Linux的用户限制,包括如何实现。 另外,如何访问已登录用户的详细信息?我知道命令w,谁,但是我正在寻找复杂的工具。
8 linux  shell  ssh  login  limit 

1
限制网络爬虫
我的网站正在由Google webspiders进行DoS。欢迎Google为我的网站建立索引,但有时它在我的网站上查询标签云的速度快于Web服务器生成结果的速度,从而使我的Web服务器资源不足。 如何以不影响普通访问者的方式限制对Web服务器的访问? robots.txt是不可选项,因为它会阻止整个网站被编制索引。 iptables -m recent 这很棘手,因为某些页面上有很多图像或其他数据文件,并且这些页面上也有“最近”的触发器(通常是我的RSS聚合器,正在加载图像和提要)。 iptables -m limit 具有相同的缺点,最重要的是,我无法按IP源地址进行选择。 如何限制导致服务器负载过高的访问者? 我在VirtualBox VM中的Ubuntu服务器上运行apache2。
By using our site, you acknowledge that you have read and understand our Cookie Policy and Privacy Policy.
Licensed under cc by-sa 3.0 with attribution required.