在运行程序时,程序代码本身没有出错,但是还是报了一个 too many open files,经过查找后发现是linux系统本身对进程可以打开的文件有一个数量的限制。下面是解决方法
一 ulimit命令
Linux对于每个用户,系统限制其最大进程数。为提高性能,可以根据设备资源情况,设置各linux 用户的最大进程数。
参数
-a:显示目前资源限制的设定;
-c :设定core文件的最大值,单位为区块;
-d <数据节区大小>:程序数据节区的最大值,单位为KB;
-f <文件大小>:shell所能建立的最大文件,单位为区块;
-H:设定资源的硬性限制,也就是管理员所设下的限制;
-m <内存大小>:指定可使用内存的上限,单位为KB;
-n <文件数目>:指定同一时间最多可开启的文件数;
-p <缓冲区大小>:指定管道缓冲区的大小,单位512字节;
-s <堆叠大小>:指定堆叠的上限,单位为KB;
-S:设定资源的弹性限制;
-t :指定CPU使用时间的上限,单位为秒;
-u <程序数目>:用户最多可开启的程序数目;
-v <虚拟内存大小>:指定可使用的虚拟内存上限,单位为KB。
所以我们可以通过ulimit -n
查看到当前shell里最多可开启的文件数。一般默认是1024.
很明显,在生产环境中,这个默认值是会慢慢超过的,也就产生了too many open files这个问题,现在我们需要去修改这个参数。
1.临时方法 shell级限制
ulimit -n xxx
这种方式可以在本次连接中有效,下次重新登录服务器时就会失效
2.长久方法 用户级限制
通过修改 /etc/security/limits.conf实现
vi /etc/security/limits.conf
在文件末尾添加:
* soft nofile 4096
* hard nofile 4096
这里添加了两行四列,分别对应下面四个参数说明:
username|@groupname type resource limit
用户 类型 资源 限制
所以,在文件末尾添加的两句命令就是:
任何用户 软件 任何文件 4096个文件
任何用户 硬件 任何文件 4096个文件
修改完毕后,直接退出本次服务器连接 ,重新登录一下就可,不必重启服务器。
二 补充:
1./proc/sys/fs/file-max
限制不了/etc/security/limits.conf
2.只有root用户才有权限修改/etc/security/limits.conf
3.对于非root用户, /etc/security/limits.conf
会限制ulimit -n
,但是限制不了root用户
4.对于非root用户,ulimit -n
只能越设置越小,root用户则无限制
5.任何用户对ulimit -n的修改只在当前环境有效,退出后失效,重新登录新来后,ulimit -n由limits.conf决定
6.如果limits.conf没有做设定,则默认值是1024
7.当前环境的用户所有进程能打开的最大问价数量由ulimit -n决定