1. 程式人生 > >Linux(Centos )的網絡內核參數優化來提高服務器並發處理能力【轉】

Linux(Centos )的網絡內核參數優化來提高服務器並發處理能力【轉】

正在 數量 庫服務器 sdn 正常 般的 優化 trie 字數

簡介

提高服務器性能有很多方法,比如劃分圖片服務器,主從數據庫服務器,和網站服務器在服務器。但是硬件資源額定有限的情況下,最大的壓榨服務器的性能,提高服務器的並發處理能力,是很多運維技術人員思考的問題。要提高Linux系統下的負載能力,可以使用nginx等原生並發處理能力就很強的web服務器,如果使用Apache的可以啟用其Worker模式,來提高其並發處理能力。除此之外,在考慮節省成本的情況下,可以修改Linux的內核相關TCP參數,來最大的提高服務器性能。當然,最基礎的提高負載問題,還是升級服務器硬件了,這是最根本的。

TIME_WAIT

Linux系統下,TCP連接斷開後,會以TIME_WAIT狀態保留一定的時間,然後才會釋放端口。當並發請求過多的時候,就會產生大量的TIME_WAIT狀態的連接,無法及時斷開的話,會占用大量的端口資源和服務器資源。這個時候我們可以優化TCP的內核參數,來及時將TIME_WAIT狀態的端口清理掉。

本文介紹的方法只對擁有大量TIME_WAIT狀態的連接導致系統資源消耗有效,如果不是這種情況下,效果可能不明顯。可以使用netstat命令去查TIME_WAIT狀態的連接狀態,輸入下面的組合命令,查看當前TCP連接的狀態和對應的連接數量:

netstat -n | awk ‘/^tcp/ {++S[$NF]} END {for(a in S) print a, S[a]}‘

這個命令會輸出類似下面的結果:
LAST_ACK 16
SYN_RECV 348
ESTABLISHED 70
FIN_WAIT1 229
FIN_WAIT2 30
CLOSING 33
TIME_WAIT 18098

我們只用關心TIME_WAIT的個數,在這裏可以看到,有18000多個TIME_WAIT,這樣就占用了18000多個端口。要知道端口的數量只有65535個,占用一個少一個,會嚴重的影響到後繼的新連接。這種情況下,我們就有必要調整下Linux的TCP內核參數,讓系統更快的釋放TIME_WAIT連接。

用vim打開配置文件:#vim /etc/sysctl.conf

在這個文件中,加入下面的幾行內容:
net.ipv4.tcp_syncookies = 1
net.ipv4.tcp_tw_reuse = 1
net.ipv4.tcp_tw_recycle = 1
net.ipv4.tcp_fin_timeout = 30

輸入下面的命令,讓內核參數生效:#sysctl -p

簡單的說明上面的參數的含義:

net.ipv4.tcp_syncookies = 1
#表示開啟SYN Cookies。當出現SYN等待隊列溢出時,啟用cookies來處理,可防範少量SYN攻擊,默認為0,表示關閉;

net.ipv4.tcp_tw_reuse = 1
#表示開啟重用。允許將TIME-WAIT sockets重新用於新的TCP連接,默認為0,表示關閉;

net.ipv4.tcp_tw_recycle = 1
#表示開啟TCP連接中TIME-WAIT sockets的快速回收,默認為0,表示關閉;

net.ipv4.tcp_fin_timeout
#修改系統默認的 TIMEOUT 時間。

在經過這樣的調整之後,除了會進一步提升服務器的負載能力之外,還能夠防禦小流量程度的DoS、CC和SYN攻擊。

此外,如果你的連接數本身就很多,我們可以再優化一下TCP的可使用端口範圍,進一步提升服務器的並發能力。依然是往上面的參數文件中,加入下面這些配置:
net.ipv4.tcp_keepalive_time = 1200
net.ipv4.ip_local_port_range = 10000 65000
net.ipv4.tcp_max_syn_backlog = 8192
net.ipv4.tcp_max_tw_buckets = 5000
#這幾個參數,建議只在流量非常大的服務器上開啟,會有顯著的效果。一般的流量小的服務器上,沒有必要去設置這幾個參數。

net.ipv4.tcp_keepalive_time = 1200
#表示當keepalive起用的時候,TCP發送keepalive消息的頻度。缺省是2小時,改為20分鐘。

net.ipv4.ip_local_port_range = 10000 65000
#表示用於向外連接的端口範圍。缺省情況下很小:32768到61000,改為10000到65000。(註意:這裏不要將最低值設的太低,否則可能會占用掉正常的端口!)

net.ipv4.tcp_max_syn_backlog = 8192
#表示SYN隊列的長度,默認為1024,加大隊列長度為8192,可以容納更多等待連接的網絡連接數。

net.ipv4.tcp_max_tw_buckets = 6000
#表示系統同時保持TIME_WAIT的最大數量,如果超過這個數字,TIME_WAIT將立刻被清除並打印警告信息。默 認為180000,改為6000。對於Apache、Nginx等服務器,上幾行的參數可以很好地減少TIME_WAIT套接字數量,但是對於Squid,效果卻不大。此項參數可以控制TIME_WAIT的最大數量,避免Squid服務器被大量的TIME_WAIT拖死。

內核其他TCP參數說明:
net.ipv4.tcp_max_syn_backlog = 65536
#記錄的那些尚未收到客戶端確認信息的連接請求的最大值。對於有128M內存的系統而言,缺省值是1024,小內存的系統則是128。

net.core.netdev_max_backlog = 32768
#每個網絡接口接收數據包的速率比內核處理這些包的速率快時,允許送到隊列的數據包的最大數目。

net.core.somaxconn = 32768
#web應用中listen函數的backlog默認會給我們內核參數的net.core.somaxconn限制到128,而nginx定義的NGX_LISTEN_BACKLOG默認為511,所以有必要調整這個值。

net.core.wmem_default = 8388608
net.core.rmem_default = 8388608
net.core.rmem_max = 16777216 #最大socket讀buffer,可參考的優化值:873200
net.core.wmem_max = 16777216 #最大socket寫buffer,可參考的優化值:873200
net.ipv4.tcp_timestsmps = 0
#時間戳可以避免序列號的卷繞。一個1Gbps的鏈路肯定會遇到以前用過的序列號。時間戳能夠讓內核接受這種“異常”的數據包。這裏需要將其關掉。
net.ipv4.tcp_synack_retries = 2
#為了打開對端的連接,內核需要發送一個SYN並附帶一個回應前面一個SYN的ACK。也就是所謂三次握手中的第二次握手。這個設置決定了內核放棄連接之前發送SYN+ACK包的數量。
net.ipv4.tcp_syn_retries = 2
#在內核放棄建立連接之前發送SYN包的數量。
#net.ipv4.tcp_tw_len = 1
net.ipv4.tcp_tw_reuse = 1
# 開啟重用。允許將TIME-WAIT sockets重新用於新的TCP連接。

net.ipv4.tcp_wmem = 8192 436600 873200
# TCP寫buffer,可參考的優化值: 8192 436600 873200

net.ipv4.tcp_rmem = 32768 436600 873200
# TCP讀buffer,可參考的優化值: 32768 436600 873200

net.ipv4.tcp_mem = 94500000 91500000 92700000
# 同樣有3個值,意思是:

net.ipv4.tcp_mem[0]:低於此值,TCP沒有內存壓力。
net.ipv4.tcp_mem[1]:在此值下,進入內存壓力階段。
net.ipv4.tcp_mem[2]:高於此值,TCP拒絕分配socket。
上述內存單位是頁,而不是字節。可參考的優化值是:786432 1048576 1572864

net.ipv4.tcp_max_orphans = 3276800
#系統中最多有多少個TCP套接字不被關聯到任何一個用戶文件句柄上。
如果超過這個數字,連接將即刻被復位並打印出警告信息。
這個限制僅僅是為了防止簡單的DoS攻擊,不能過分依靠它或者人為地減小這個值,
更應該增加這個值(如果增加了內存之後)。
net.ipv4.tcp_fin_timeout = 30
#如果套接字由本端要求關閉,這個參數決定了它保持在FIN-WAIT-2狀態的時間。對端可以出錯並永遠不關閉連接,甚至意外當機。缺省值是60秒。2.2 內核的通常值是180秒,你可以按這個設置,但要記住的是,即使你的機器是一個輕載的WEB服務器,也有因為大量的死套接字而內存溢出的風險,FIN- WAIT-2的危險性比FIN-WAIT-1要小,因為它最多只能吃掉1.5K內存,但是它們的生存期長些。

經過這樣的優化配置之後,你的服務器的TCP並發處理能力會顯著提高。以上配置僅供參考,用於生產環境請根據自己的實際情況。

轉自

Linux(Centos )的網絡內核參數優化來提高服務器並發處理能力 - CSDN博客
http://blog.csdn.net/shaobingj126/article/details/8549494

Linux之TCPIP內核參數優化

轉自

Linux之TCPIP內核參數優化 - Jessica程序猿 - 博客園
http://www.cnblogs.com/wuchanming/p/4028341.html

/proc/sys/net目錄

  所有的TCP/IP參數都位於/proc/sys/net目錄下(請註意,對/proc/sys/net目錄下內容的修改都是臨時的,任何修改在系統重啟後都會丟失),例如下面這些重要的參數:

參數(路徑+文件)

描述

默認值

優化值

/proc/sys/net/core/rmem_default

默認的TCP數據接收窗口大小(字節)。

229376

256960

/proc/sys/net/core/rmem_max

最大的TCP數據接收窗口(字節)。

131071

513920

/proc/sys/net/core/wmem_default

默認的TCP數據發送窗口大小(字節)。

229376

256960

/proc/sys/net/core/wmem_max

最大的TCP數據發送窗口(字節)。

131071

513920

/proc/sys/net/core/netdev_max_backlog

在每個網絡接口接收數據包的速率比內核處理這些包的速率快時,允許送到隊列的數據包的最大數目。

1000

2000

/proc/sys/net/core/somaxconn

定義了系統中每一個端口最大的監聽隊列的長度,這是個全局的參數。

128

2048

/proc/sys/net/core/optmem_max

表示每個套接字所允許的最大緩沖區的大小。

20480

81920

/proc/sys/net/ipv4/tcp_mem

確定TCP棧應該如何反映內存使用,每個值的單位都是內存頁(通常是4KB)。第一個值是內存使用的下限;第二個值是內存壓力模式開始對緩沖區使用應用壓力的上限;第三個值是內存使用的上限。在這個層次上可以將報文丟棄,從而減少對內存的使用。對於較大的BDP可以增大這些值(註意,其單位是內存頁而不是字節)。

94011 125351 188022

131072 262144 524288

/proc/sys/net/ipv4/tcp_rmem

為自動調優定義socket使用的內存。第一個值是為socket接收緩沖區分配的最少字節數;第二個值是默認值(該值會被rmem_default覆蓋),緩沖區在系統負載不重的情況下可以增長到這個值;第三個值是接收緩沖區空間的最大字節數(該值會被rmem_max覆蓋)。

4096 87380 4011232

8760 256960 4088000

/proc/sys/net/ipv4/tcp_wmem

為自動調優定義socket使用的內存。第一個值是為socket發送緩沖區分配的最少字節數;第二個值是默認值(該值會被wmem_default覆蓋),緩沖區在系統負載不重的情況下可以增長到這個值;第三個值是發送緩沖區空間的最大字節數(該值會被wmem_max覆蓋)。

4096 16384 4011232

8760 256960 4088000

/proc/sys/net/ipv4/tcp_keepalive_time

TCP發送keepalive探測消息的間隔時間(秒),用於確認TCP連接是否有效。

7200

1800

/proc/sys/net/ipv4/tcp_keepalive_intvl

探測消息未獲得響應時,重發該消息的間隔時間(秒)。

75

30

/proc/sys/net/ipv4/tcp_keepalive_probes

在認定TCP連接失效之前,最多發送多少個keepalive探測消息。

9

3

/proc/sys/net/ipv4/tcp_sack

啟用有選擇的應答(1表示啟用),通過有選擇地應答亂序接收到的報文來提高性能,讓發送者只發送丟失的報文段,(對於廣域網通信來說)這個選項應該啟用,但是會增加對CPU的占用。

1

1

/proc/sys/net/ipv4/tcp_fack

啟用轉發應答,可以進行有選擇應答(SACK)從而減少擁塞情況的發生,這個選項也應該啟用。

1

1

/proc/sys/net/ipv4/tcp_timestamps

TCP時間戳(會在TCP包頭增加12個字節),以一種比重發超時更精確的方法(參考RFC 1323)來啟用對RTT 的計算,為實現更好的性能應該啟用這個選項。

1

1

/proc/sys/net/ipv4/tcp_window_scaling

啟用RFC 1323定義的window scaling,要支持超過64KB的TCP窗口,必須啟用該值(1表示啟用),TCP窗口最大至1GB,TCP連接雙方都啟用時才生效。

1

1

/proc/sys/net/ipv4/tcp_syncookies

表示是否打開TCP同步標簽(syncookie),內核必須打開了CONFIG_SYN_COOKIES項進行編譯,同步標簽可以防止一個套接字在有過多試圖連接到達時引起過載。

1

1

/proc/sys/net/ipv4/tcp_tw_reuse

表示是否允許將處於TIME-WAIT狀態的socket(TIME-WAIT的端口)用於新的TCP連接 。

0

1

/proc/sys/net/ipv4/tcp_tw_recycle

能夠更快地回收TIME-WAIT套接字。

0

1

/proc/sys/net/ipv4/tcp_fin_timeout

對於本端斷開的socket連接,TCP保持在FIN-WAIT-2狀態的時間(秒)。對方可能會斷開連接或一直不結束連接或不可預料的進程死亡。

60

30

/proc/sys/net/ipv4/ip_local_port_range

表示TCP/UDP協議允許使用的本地端口號

32768 61000

1024 65000

/proc/sys/net/ipv4/tcp_max_syn_backlog

對於還未獲得對方確認的連接請求,可保存在隊列中的最大數目。如果服務器經常出現過載,可以嘗試增加這個數字。

2048

2048

/proc/sys/net/ipv4/tcp_low_latency

允許TCP/IP棧適應在高吞吐量情況下低延時的情況,這個選項應該禁用。

0

/proc/sys/net/ipv4/tcp_westwood

啟用發送者端的擁塞控制算法,它可以維護對吞吐量的評估,並試圖對帶寬的整體利用情況進行優化,對於WAN 通信來說應該啟用這個選項。

0

/proc/sys/net/ipv4/tcp_bic

為快速長距離網絡啟用Binary Increase Congestion,這樣可以更好地利用以GB速度進行操作的鏈接,對於WAN通信應該啟用這個選項。

1


/etc/sysctl.conf文件

  /etc/sysctl.conf是一個允許你改變正在運行中的Linux系統的接口。它包含一些TCP/IP堆棧和虛擬內存系統的高級選項,可用來控制Linux網絡配置,由於/proc/sys/net目錄內容的臨時性,建議把TCPIP參數的修改添加到/etc/sysctl.conf文件, 然後保存文件,使用命令“/sbin/sysctl –p”使之立即生效。具體修改方案參照上文:

net.core.rmem_default = 256960

net.core.rmem_max = 513920

net.core.wmem_default = 256960

net.core.wmem_max = 513920

net.core.netdev_max_backlog = 2000

net.core.somaxconn = 2048

net.core.optmem_max = 81920

net.ipv4.tcp_mem = 131072 262144 524288

net.ipv4.tcp_rmem = 8760 256960 4088000

net.ipv4.tcp_wmem = 8760 256960 4088000

net.ipv4.tcp_keepalive_time = 1800

net.ipv4.tcp_keepalive_intvl = 30

net.ipv4.tcp_keepalive_probes = 3

net.ipv4.tcp_sack = 1

net.ipv4.tcp_fack = 1

net.ipv4.tcp_timestamps = 1

net.ipv4.tcp_window_scaling = 1

net.ipv4.tcp_syncookies = 1

net.ipv4.tcp_tw_reuse = 1

net.ipv4.tcp_tw_recycle = 1

net.ipv4.tcp_fin_timeout = 30

net.ipv4.ip_local_port_range = 1024 65000

net.ipv4.tcp_max_syn_backlog = 2048

轉至:http://www.cnblogs.com/fczjuever/archive/2013/04/17/3026694.html

LINUX 下tcp 和 udp 套接字收發緩沖區的大小決定規則

1. tcp 收發緩沖區默認值

[root@qljt core]# cat /proc/sys/net/ipv4/tcp_rmem
4096 87380 4161536

87380 :tcp接收緩沖區的默認值

[root@qljt core]# cat /proc/sys/net/ipv4/tcp_wmem
4096 16384 4161536

16384 : tcp 發送緩沖區的默認值

2. tcp 或udp收發緩沖區最大值

[root@qljt core]# cat /proc/sys/net/core/rmem_max
131071

131071:tcp 或 udp 接收緩沖區最大可設置值的一半。

也就是說調用 setsockopt(s, SOL_SOCKET, SO_RCVBUF, &rcv_size, &optlen); 時rcv_size 如果超過 131071,那麽

getsockopt(s, SOL_SOCKET, SO_RCVBUF, &rcv_size, &optlen); 去到的值就等於 131071 * 2 = 262142

[root@qljt core]# cat /proc/sys/net/core/wmem_max
131071

131071:tcp 或 udp 發送緩沖區最大可設置值得一半。

跟上面同一個道理

3. udp收發緩沖區默認值

[root@qljt core]# cat /proc/sys/net/core/rmem_default
111616:udp接收緩沖區的默認值

[root@qljt core]# cat /proc/sys/net/core/wmem_default
111616

111616:udp發送緩沖區的默認值

4. tcp 或udp收發緩沖區最小值

tcp 或udp接收緩沖區的最小值為 256 bytes,由內核的宏決定;

tcp 或udp發送緩沖區的最小值為 2048 bytes,由內核的宏決定

優化Linux下的內核TCP參數來提高服務器負載能力 - CSDN博客
http://blog.csdn.net/opensure/article/details/46714793

linux內核優化,內核參數詳解 - CSDN博客
http://blog.csdn.net/killapper/article/details/46318529

Linux(Centos )的網絡內核參數優化來提高服務器並發處理能力【轉】