1. 程式人生 > >Tomcat+Redis+Nginx實現負載均衡(session共享)

Tomcat+Redis+Nginx實現負載均衡(session共享)

Session共享肯定是Tomcat叢集必不可少的步驟,而在記憶體伺服器中Redis又是很強勢的一個伺服器,所以今天特地使用Tomcat+Nginx+Redis做了一個負載均衡的Tomcat叢集demo,以供參考。

其中,Tomcat的作用就不必多說了,Nginx作為一個萬能的中介軟體,也是經常可以在真實專案中看到他的身影,nginx可以做靜態資源伺服器、負載均衡、反向代理等等,在這裡我們用到的主要是他的反向代理功能和負載均衡功能;Redis是一個存取速度極快、儲存型別多樣化、支援叢集、還可以用來實現佇列功能的記憶體資料庫,有興趣的話可以多瞭解一點。

首先放出所需材料:

Nginx : 

http://www.runoob.com/linux/nginx-install-setup.html

Redis : http://www.runoob.com/redis/redis-tutorial.html

Tomcat : http://tomcat.apache.org/

所需jar :https://download.csdn.net/download/w_dongqiang/10875067

jar也可自行下載(上面jar包含):commons-pool2-2.2.jar     jedis-2.5.2.jar       tomcat-redis-session-manage-tomcat7.jar

另外不同tomcat請下載對應版本的jar,這裡測試的為tomcat7

 

第一步:

首先安裝redis服務端,安裝開啟redis,解壓tomcat並複製出相同的一份,修改tomcat的conf/server.xml配置檔案,保證埠不會衝突,(可參考:https://jingyan.baidu.com/article/adc815139b12def722bf7377.html);

 

第二步:

修改tomcat下webapp/Root/WEB-INF/web.xml,加上預設歡迎頁面,

<welcome-file-list>
    <welcome-file>index.jsp</welcome-file>
</welcome-file-list>

然後找到webapp/Root下的index.jsp檔案,修改為如下內容(用於測試):

<%@ page language="java" contentType="text/html; charset=UTF-8"
    pageEncoding="UTF-8"%>
<!DOCTYPE html PUBLIC "-//W3C//DTD HTML 4.01 Transitional//EN" "http://www.w3.org/TR/html4/loose.dtd">
<html>
<head>
<meta http-equiv="Content-Type" content="text/html; charset=ISO-8859-1">
<title>Tomcat02</title>
</head>
<body>
    Session Id : <%= request.getSession().getId() %>
</body>
</html>

sessionId是tomcat記錄使用者會話的標識,如果sessionId一致則可以視為同一個會話,另外一個tomcat也執行同樣操作。

 

 

第三步:

把需要的jar包全部下載並分別放到兩個tomcat的lib下,並向tomcat的conf/context.xml中新增如下程式碼:

<Valve className="com.orangefunction.tomcat.redissessions.RedisSessionHandlerValve" />
<Manager className="com.orangefunction.tomcat.redissessions.RedisSessionManager"
       host="localhost"
       port="6379"
       database="0"
       maxInactiveInterval="60" />

這個例項只是介紹整合方式,如果需要redis叢集的話請另行搜尋並修改<Manager>標籤下的配置。

修改完了以後啟動兩個tomcat,正常情況下應該會正常啟動。

 

第四步:

解壓下載的Nginx檔案,修改該檔案下的conf/nginx.conf檔案,使兩臺tomcat用nginx配置的虛擬路徑關聯到一起,(可參考:https://www.cnblogs.com/lfjjava/p/6092727.html)下面貼上我的nginx.conf配置:


#執行使用者
#user  nobody;
#啟動程序,通常設定成和cpu的數量相等
worker_processes  1;

#全域性錯誤日誌及PID檔案
#error_log  logs/error.log;
#error_log  logs/error.log  notice;
#error_log  logs/error.log  info;

#pid        logs/nginx.pid;

#工作模式及連線數上限
events {
	#epoll是多路複用IO(I/O Multiplexing)中的一種方式,
    #僅用於linux2.6以上核心,可以大大提高nginx的效能
    #use   epoll; 
 
    #單個後臺worker process程序的最大併發連結數    
    worker_connections  1024;
 
    # 併發總數是 worker_processes 和 worker_connections 的乘積
    # 即 max_clients = worker_processes * worker_connections
    # 在設定了反向代理的情況下,max_clients = worker_processes * worker_connections / 4  為什麼
    # 為什麼上面反向代理要除以4,應該說是一個經驗值
    # 根據以上條件,正常情況下的Nginx Server可以應付的最大連線數為:4 * 8000 = 32000
    # worker_connections 值的設定跟實體記憶體大小有關
    # 因為併發受IO約束,max_clients的值須小於系統可以開啟的最大檔案數
    # 而系統可以開啟的最大檔案數和記憶體大小成正比,一般1GB記憶體的機器上可以開啟的檔案數大約是10萬左右
    # 我們來看看360M記憶體的VPS可以開啟的檔案控制代碼數是多少:
    # $ cat /proc/sys/fs/file-max
    # 輸出 34336
    # 32000 < 34336,即併發連線總數小於系統可以開啟的檔案控制代碼總數,這樣就在作業系統可以承受的範圍之內
    # 所以,worker_connections 的值需根據 worker_processes 程序數目和系統可以開啟的最大檔案總數進行適當地進行設定
    # 使得併發總數小於作業系統可以開啟的最大檔案數目
    # 其實質也就是根據主機的物理CPU和記憶體進行配置
    # 當然,理論上的併發總數可能會和實際有所偏差,因為主機還有其他的工作程序需要消耗系統資源。
    # ulimit -SHn 65535
}


http {
	#設定mime型別,型別由mime.type檔案定義
    include    mime.types;
    default_type  application/octet-stream;
	
	#設定日誌格式
    #log_format  main  '$remote_addr - $remote_user [$time_local] "$request" '
    #                  '$status $body_bytes_sent "$http_referer" '
    #                  '"$http_user_agent" "$http_x_forwarded_for"';
	#設定日誌路徑
    #access_log  logs/access.log  main;
	
	#sendfile 指令指定 nginx 是否呼叫 sendfile 函式(zero copy 方式)來輸出檔案,
    #對於普通應用,必須設為 on,
    #如果用來進行下載等應用磁碟IO重負載應用,可設定為 off,
    #以平衡磁碟與網路I/O處理速度,降低系統的uptime.
    sendfile        on;
    #tcp_nopush     on;
	
	#連線超時時間
    #keepalive_timeout  0;
    keepalive_timeout  65;
	
	#開啟gzip壓縮 -- 可以大大壓縮傳輸的內容,但是有一些瀏覽器不支援,所以根據瀏覽器不同則不適用壓縮傳輸。
    #gzip  on;
	#gzip_disable "MSIE [1-6]."; #不進行壓縮傳輸的瀏覽器。
	
	#定義分散併發壓力的代理真實伺服器ip(訪問時訪問wgf。com)  
	#ip_hash;
	upstream wgf.com{ 
        server 192.168.7.141:8080 weight=1;    #真實伺服器A(sxwgf-PC)    
        server 192.168.7.141:8888 weight=1;    #真實伺服器B(hzdk-vpc) 
    } 
	
	
	#設定虛擬主機配置
    server {
		#服務的埠號
        listen       80;
		#定義使用 www.nginx.cn訪問
        server_name  localhost;
		#設定訪問及傳輸的內容編碼格式
        #charset koi8-r;
		#訪問日期
        #access_log  logs/host.access.log  main;
		
		
		#預設請求
        location / {
			#定義伺服器的預設網站根目錄位置
            root   html;
			#預設訪問的首頁
            index  index.html index.htm;
            proxy_redirect off;
            proxy_set_header Host $host;
            proxy_set_header X-Real-IP $remote_addr;
            proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; 
            proxy_pass  http://wgf.com;    #反向代理地址
        }
		#錯誤404跳轉的頁面
        #error_page  404              /404.html;

        
        #50x 錯誤跳轉的頁面
        error_page   500 502 503 504  /50x.html;
        location = /50x.html {
            root   html;
        }
    }

}

 

nginx可以隱藏專案的真實路徑,使用一個虛擬路徑進行代理,這樣不論使用者怎麼訪問展現給使用者的都會是同一個地址,而請求壓力則會根據配置的權重分配給不同的tomcat,配置完nginx.conf後,點選nginx.exe啟動nginx,開啟瀏覽器訪問nginx.conf中配置的代理地址,我這裡是localhost,效果如下:

 

 

從兩次請求可以看出我們雖然訪問的是同一個地址,但處理請求的卻是兩個tomcat,雖然處理請求的是兩個tomcat,但是使用者的session卻能保持一致,保證了使用者資訊的完整性,這個這正是我們所需要的效果。

 

 

demo程式碼:https://download.csdn.net/download/w_dongqiang/10875343