1. 程式人生 > >再談應用環境下的 TIME_WAIT 和 CLOSE_WAIT

再談應用環境下的 TIME_WAIT 和 CLOSE_WAIT

ech 防範 生效 場景 closed 防止 減少 進入 top

轉自:http://blog.csdn.net/shootyou/article/details/6622226

昨天解決了一個HttpClient調用錯誤導致的服務器異常,具體過程如下:

http://blog.csdn.net/shootyou/article/details/6615051

裏頭的分析過程有提到,通過查看服務器網絡狀態檢測到服務器有大量的CLOSE_WAIT的狀態。

在服務器的日常維護過程中,會經常用到下面的命令:

[plain] view plain copy print?
  1. netstat -n | awk ‘/^tcp/ {++S[$NF]} END {for(a in S) print a, S[a]}‘

它會顯示例如下面的信息:

TIME_WAIT 814
CLOSE_WAIT 1
FIN_WAIT1 1
ESTABLISHED 634
SYN_RECV 2
LAST_ACK 1

常用的三個狀態是:ESTABLISHED 表示正在通信,TIME_WAIT 表示主動關閉,CLOSE_WAIT 表示被動關閉。

具體每種狀態什麽意思,其實無需多說,看看下面這種圖就明白了,註意這裏提到的服務器應該是業務請求接受處理的一方:

技術分享

這麽多狀態不用都記住,只要了解到我上面提到的最常見的三種狀態的意義就可以了。一般不到萬不得已的情況也不會去查看網絡狀態,如果服務器出了異常,百分之八九十都是下面兩種情況:

1.服務器保持了大量TIME_WAIT狀態

2.服務器保持了大量CLOSE_WAIT狀態

因為Linux分配給一個用戶的文件句柄是有限的(可以參考:http://blog.csdn.net/shootyou/article/details/6579139),而TIME_WAIT和CLOSE_WAIT兩種狀態如果一直被保持,那麽意味著對應數目的通道就一直被占著,而且是“占著茅坑不使勁”,一旦達到句柄數上限,新的請求就無法被處理了,接著就是大量Too Many Open Files異常,tomcat崩潰。。。

下面來討論下這兩種情況的處理方法,網上有很多資料把這兩種情況的處理方法混為一談,以為優化系統內核參數就可以解決問題,其實是不恰當的,優化系統內核參數解決TIME_WAIT可能很容易,但是應對CLOSE_WAIT的情況還是需要從程序本身出發。現在來分別說說這兩種情況的處理方法:

1.服務器保持了大量TIME_WAIT狀態

這種情況比較常見,一些爬蟲服務器或者WEB服務器(如果網管在安裝的時候沒有做內核參數優化的話)上經常會遇到這個問題,這個問題是怎麽產生的呢?

從上面的示意圖可以看得出來,TIME_WAIT是主動關閉連接的一方保持的狀態,對於爬蟲服務器來說他本身就是“客戶端”,在完成一個爬取任務之後,他就會發起主動關閉連接,從而進入TIME_WAIT的狀態,然後在保持這個狀態2MSL(max segment lifetime)時間之後,徹底關閉回收資源。為什麽要這麽做?明明就已經主動關閉連接了為啥還要保持資源一段時間呢?這個是TCP/IP的設計者規定的,主要出於以下兩個方面的考慮:

1.防止上一次連接中的包,迷路後重新出現,影響新連接(經過2MSL,上一次連接中所有的重復包都會消失)
2.可靠的關閉TCP連接。在主動關閉方發送的最後一個 ack(fin) ,有可能丟失,這時被動方會重新發fin, 如果這時主動方處於 CLOSED 狀態 ,就會響應 rst 而不是 ack。所以主動方要處於 TIME_WAIT 狀態,而不能是 CLOSED 。另外這麽設計TIME_WAIT 會定時的回收資源,並不會占用很大資源的,除非短時間內接受大量請求或者受到攻擊。

關於MSL引用下面一段話:

[plain] view plain copy print?
  1. MSL 為一個 TCP Segment (某一塊 TCP 網路封包) 從來源送到目的之間可續存的時間 (也就是一個網路封包在網路上傳輸時能存活的時間),由於 RFC 793 TCP 傳輸協定是在 1981 年定義的,當時的網路速度不像現在的網際網路那樣發達,你可以想像你從瀏覽器輸入網址等到第一個 byte 出現要等 4 分鐘嗎?在現在的網路環境下幾乎不可能有這種事情發生,因此我們大可將 TIME_WAIT 狀態的續存時間大幅調低,好讓 連線埠 (Ports) 能更快空出來給其他連線使用。

再引用網絡資源的一段話:

[plain] view plain copy print?
  1. 值得一說的是,對於基於TCP的HTTP協議,關閉TCP連接的是Server端,這樣,Server端會進入TIME_WAIT狀態,可 想而知,對於訪問量大的Web Server,會存在大量的TIME_WAIT狀態,假如server一秒鐘接收1000個請求,那麽就會積壓240*1000=240,000個 TIME_WAIT的記錄,維護這些狀態給Server帶來負擔。當然現代操作系統都會用快速的查找算法來管理這些TIME_WAIT,所以對於新的 TCP連接請求,判斷是否hit中一個TIME_WAIT不會太費時間,但是有這麽多狀態要維護總是不好。
  2. HTTP協議1.1版規定default行為是Keep-Alive,也就是會重用TCP連接傳輸多個 request/response,一個主要原因就是發現了這個問題。

也就是說HTTP的交互跟上面畫的那個圖是不一樣的,關閉連接的不是客戶端,而是服務器,所以web服務器也是會出現大量的TIME_WAIT的情況的。
現在來說如何來解決這個問題。
解決思路很簡單,就是讓服務器能夠快速回收和重用那些TIME_WAIT的資源。
下面來看一下我們網管對/etc/sysctl.conf文件的修改: [plain] view plain copy print?
  1. #對於一個新建連接,內核要發送多少個 SYN 連接請求才決定放棄,不應該大於255,默認值是5,對應於180秒左右時間
  2. net.ipv4.tcp_syn_retries=2
  3. #net.ipv4.tcp_synack_retries=2
  4. #表示當keepalive起用的時候,TCP發送keepalive消息的頻度。缺省是2小時,改為300秒
  5. net.ipv4.tcp_keepalive_time=1200
  6. net.ipv4.tcp_orphan_retries=3
  7. #表示如果套接字由本端要求關閉,這個參數決定了它保持在FIN-WAIT-2狀態的時間
  8. net.ipv4.tcp_fin_timeout=30
  9. #表示SYN隊列的長度,默認為1024,加大隊列長度為8192,可以容納更多等待連接的網絡連接數。
  10. net.ipv4.tcp_max_syn_backlog = 4096
  11. #表示開啟SYN Cookies。當出現SYN等待隊列溢出時,啟用cookies來處理,可防範少量SYN攻擊,默認為0,表示關閉
  12. net.ipv4.tcp_syncookies = 1
  13. #表示開啟重用。允許將TIME-WAIT sockets重新用於新的TCP連接,默認為0,表示關閉
  14. net.ipv4.tcp_tw_reuse = 1
  15. #表示開啟TCP連接中TIME-WAIT sockets的快速回收,默認為0,表示關閉
  16. net.ipv4.tcp_tw_recycle = 1
  17. ##減少超時前的探測次數
  18. net.ipv4.tcp_keepalive_probes=5
  19. ##優化網絡設備接收隊列
  20. net.core.netdev_max_backlog=3000
[plain] view plain copy print?
修改完之後執行/sbin/sysctl -p讓參數生效。
這裏頭主要註意到的是net.ipv4.tcp_tw_reuse net.ipv4.tcp_tw_recycle
net.ipv4.tcp_fin_timeout
net.ipv4.tcp_keepalive_*
這幾個參數。
net.ipv4.tcp_tw_reuse和net.ipv4.tcp_tw_recycle的開啟都是為了回收處於TIME_WAIT狀態的資源。
net.ipv4.tcp_fin_timeout這個時間可以減少在異常情況下服務器從FIN-WAIT-2轉到TIME_WAIT的時間。
net.ipv4.tcp_keepalive_*一系列參數,是用來設置服務器檢測連接存活的相關配置。
關於keepalive的用途可以參考:http://hi.baidu.com/tantea/blog/item/580b9d0218f981793812bb7b.html [2015.01.13更新] 註意tcp_tw_recycle開啟的風險:http://blog.csdn.net/wireless_tech/article/details/6405755 2.服務器保持了大量CLOSE_WAIT狀態 休息一下,喘口氣,一開始只是打算說說TIME_WAIT和CLOSE_WAIT的區別,沒想到越挖越深,這也是寫博客總結的好處,總可以有意外的收獲。
TIME_WAIT狀態可以通過優化服務器參數得到解決,因為發生TIME_WAIT的情況是服務器自己可控的,要麽就是對方連接的異常,要麽就是自己沒有迅速回收資源,總之不是由於自己程序錯誤導致的。 但是CLOSE_WAIT就不一樣了,從上面的圖可以看出來,如果一直保持在CLOSE_WAIT狀態,那麽只有一種情況,就是在對方關閉連接之後服務器程序自己沒有進一步發出ack信號。換句話說,就是在對方連接關閉之後,程序裏沒有檢測到,或者程序壓根就忘記了這個時候需要關閉連接,於是這個資源就一直被程序占著。個人覺得這種情況,通過服務器內核參數也沒辦法解決,服務器對於程序搶占的資源沒有主動回收的權利,除非終止程序運行。
如果你使用的是HttpClient並且你遇到了大量CLOSE_WAIT的情況,那麽這篇日誌也許對你有用:http://blog.csdn.net/shootyou/article/details/6615051 在那邊日誌裏頭我舉了個場景,來說明CLOSE_WAIT和TIME_WAIT的區別,這裏重新描述一下: 服務器A是一臺爬蟲服務器,它使用簡單的HttpClient去請求資源服務器B上面的apache獲取文件資源,正常情況下,如果請求成功,那麽在抓取完資源後,服務器A會主動發出關閉連接的請求,這個時候就是主動關閉連接,服務器A的連接狀態我們可以看到是TIME_WAIT。如果一旦發生異常呢?假設請求的資源服務器B上並不存在,那麽這個時候就會由服務器B發出關閉連接的請求,服務器A就是被動的關閉了連接,如果服務器A被動關閉連接之後程序員忘了讓HttpClient釋放連接,那就會造成CLOSE_WAIT的狀態了。
所以如果將大量CLOSE_WAIT的解決辦法總結為一句話那就是:查代碼。因為問題出在服務器程序裏頭啊。
參考資料: 1.windows下的TIME_WAIT的處理可以參加這位大俠的日誌:http://blog.miniasp.com/post/2010/11/17/How-to-deal-with-TIME_WAIT-problem-under-Windows.aspx
2.WebSphere的服務器優化有一定參考價值:http://publib.boulder.ibm.com/infocenter/wasinfo/v6r0/index.jsp?topic=/com.ibm.websphere.express.doc/info/exp/ae/tprf_tunelinux.html 3.各種內核參數的含義:http://haka.sharera.com/blog/BlogTopic/32309.htm 4.linux服務器歷險之sysctl優化linux網絡:http://blog.csdn.net/chinalinuxzend/article/details/1792184

再談應用環境下的 TIME_WAIT 和 CLOSE_WAIT