too many open file
1、檢查/proc/sys/fs/file-max文件來確認最大打開文件數
如果設置值太小, 修改文件/etc/sysctl.conf的變量到合適的值。 這樣會在每次重啟之後生效。 如果設置值夠大,跳過下步。
# echo 2048 > /proc/sys/fs/file-max
編輯文件/etc/sysctl.conf,插入下行。
fs.file-max = 8192 然後,執行命名: sysctl -p
2、在/etc/security/limits.conf文件中設置最大打開文件數, 下面是一行提示:
#
添加如下這行。
* - nofile 8192
這行設置了每個用戶的默認打開文件數為2048。 註意"nofile"
硬限制表明soft限制中所能設定的最大值。 soft限制指的是當前系統生效的設置值。 hard限制值可以被普通用戶降低。但是不能增加。 soft限制不能設置的比hard限制更高。 只有root用戶才能夠增加hard限制值。
當增加文件限制描述,可以簡單的把當前值雙倍。 例子如下, 如果你要提高默認值1024, 最好提高到2048, 如果還要繼續增加, 就需要設置成4096。
另外一種情況是在創建索引的時候,也有兩種可能,一種是
在此基礎上,我還修改了以下一個配置文件
vi /etc/sysctl.conf
添加:
# Decrease the time default value for tcp_fin_timeout connection
net.ipv4.tcp_fin_timeout = 30
# Decrease the time default value for tcp_keepalive_time connection
# Turn off tcp_window_scaling
net.ipv4.tcp_window_scaling = 0
# Turn off the tcp_sack
net.ipv4.tcp_sack = 0
#Turn off tcp_timestamps
net.ipv4.tcp_timestamps = 0
然後 service network restart,這些都和TCP sockets有關的優化。
另外需要在 /etc/rc.d/rc.local裏添加已使得重啟的時候生效。
echo "30">/proc/sys/net/ipv4/tcp_fin_timeout
echo "1800">/proc/sys/net/ipv4/tcp_keepalive_time
echo "0">/proc/sys/net/ipv4/tcp_window_scaling
echo "0">/proc/sys/net/ipv4/tcp_sack
echo "0">/proc/sys/net/ipv4/tcp_timestamps
因為不是所有的程序都在root下跑的,所有linux有對hard 與soft open files 的區分,普通用戶受hard的限制,無論ulimit -n $數值調到多高,都跑不到 /etc/security/limits.conf裏nofile的值.
這樣的優化後 lsof -p $java_pid|wc -l可以跑到4千以上都不會拋出too many open files。
但是我們通過以上的文章詳細介紹知道,這樣也是治標不治本,找到java哪個文件不關閉文件描述符或者被請求過多的原因才是最重要的!
最近隨著網站訪問量的提高把web服務器移到linux下了,在移服務器的第二天,tomcat頻繁的報
java.net.SocketException: Too many open files錯誤,錯誤日誌達到了100多兆,郁悶了,windows上運行了很長
時間都沒出現這個錯誤,後來才知道linux對進程的打開文件數是有限制的。
用命令ulimit -a查看
[[email protected] security]# ulimit -a
core file size (blocks, -c) 0
data seg size (kbytes, -d) unlimited
file size (blocks, -f) unlimited
max locked memory (kbytes, -l) unlimited
max memory size (kbytes, -m) unlimited
open files (-n) 1024
pipe size (512 bytes, -p) 8
stack size (kbytes, -s) 8192
cpu time (seconds, -t) unlimited
max user processes (-u) 7168
virtual memory (kbytes, -v) unlimited
[[email protected] security]#
通過以上命令,我們可以看到open files 的最大數為1024
對於並發量比較大的網站這個限制是有些捉襟見肘的,所以我通過這個命令
ulimit -n 4096
把打開文件數的上限設為了4096,這下好了,項目又穩定了
沒想到過兩天後又重新出這個錯誤了,郁悶,兩個小時報一次,報之後就掛掉了
在重新用ulimit -a查看,發現open files (-n) 1024 又變回了1024了,
報這個錯誤就在我那次登陸更新之後又報的,原來ulimit -n 4096 命令只能臨時的改變open files 的值,當
重新登陸後又會恢復,所以需要永久設置open files 的值才行啊,
用ulimit -n 修改open files 總是不能保持。所以用下面一個簡單的辦法更好些。
修改/etc/security/limits.conf 添加如下一行:
* - nofile 1006154
修改/etc/pam.d/login添加如下一行
session required /lib/security/pam_limits.so
這次永久修改後程序就再沒那個問題了,一直穩定運行。
另外遇到這個問題這後還需要檢查我們的程序對於操作io的流是否在操作完之後關閉,這才是從最更本上的解決。
too many open file