1. 程式人生 > >Haproxy+keepalived負載均衡配置

Haproxy+keepalived負載均衡配置

本文主要介紹Haproxy負載均衡的安裝配置以及結合keepalived保證高可用,概要如下:
-安裝haproxy
-配置haporxy
-單臺haproxy負載均衡配置
-安裝keepalived
-配置keepalived
-haproxy主從配置
-haproxy主從切換測試
-haproxy配置檔案詳解

安裝haproxy

環境說明:

軟體下載目錄:/opt/soft
安裝目錄:/opt/haproxy
日誌目錄:/data/logs/haproxy/haproxy.log
所屬使用者:haproxy.haproxy

獲取haproxy

cd /opt/soft
Wget http://www.haproxy.org/download/1.5/src/haproxy-1.5.15.tar.gz

編譯haproxy

編譯時指定核心版本target=linux26,你可以# uname –r檢視一下本地的系統核心版本。PREFIX=/opt/haproxy是指定haproxy安裝路徑。

tar -zxvf haproxy-1.5.9.tar.gz
cd haproxy-1.5.9
make TARGET=linux26 PREFIX=/opt/haproxy
make install PREFIX=/opt/haproxy

修改配置檔案

Haproxy安裝完後預設是沒有配置檔案的,需要手動vi haproxy.cfg編譯一個,或者從原始碼包目錄examples/haproxy.cfg拷貝過來。

cd /opt/haproxy
cp /opt/soft/haproxy-1.5.9/examples/haproxy.cfg /opt/haproxy/

修改配置檔案:

vi haproxy.cfg
修改前 修改後
chroot /usr/share/haproxy chroot /usr/share/haproxy
uid 99 uid haproxy
gid 99 gid haproxy
redispatch redispatch
contimeout 5000 timeout connect 5000
clitimeout 50000 timeout client 50000
srvtimeout 50000 timeout server 50000

在daemon下面增加一行:
pidfile /opt/haproxy/haproxy.pid
如圖:
pidfilepath-img

可以將檔案中的幾個listen段刪除,並在timeout server 下面增加這一段:

listen  admin_stats 0.0.0.0:8888
       option httplog
        stats refresh 30s
        stats uri /stats
        stats realm Haproxy Manager
        stats auth admin:admin

listen  webserver1 0.0.0.0:8090
        cookie  SERVERID rewrite
        balance roundrobin
        server  app1_1 192.168.253.129:80 cookie app1inst1 check inter 2000 rise
 2 fall 5
        server  app1_2 192.168.253.129:8081 cookie app1inst2 check inter 2000 ri
se 2 fall 5
        server  app1_3 192.168.253.130:8080 cookie app1inst3 check inter 2000 ri
se 2 fall 5
        server  app1_4 192.168.253.131:80 cookie app1inst4 check inter 2000 rise
 2 fall 5

如果不刪除的話,則需要將檔案71行左右的
srvtimeout 20000 改為 timeout server 20000,
將最後一行(79行左右)
errorfile 503 /etc/haproxy/errors/503.http
改為
errorfile 503 /opt/haproxy/errorfiles/503.http,
並將解壓後的原始碼包目錄下的/opt/soft/haproxy-1.5.9/examples/errorfiles拷貝到/opt/haproxy下,即

cp –r /opt/soft/haproxy-1.5.9/examples/errorfiles  /opt/haproxy
vi /opt/haproxy/haproxy.cfg

最後配置檔案如下:

# this config needs haproxy-1.1.28 or haproxy-1.2.1
 global
        log 127.0.0.1   local0
        log 127.0.0.1   local1 notice
        #log loghost    local0 info
        maxconn 4096
        #chroot /usr/share/haproxy
        uid haproxy
        gid haproxy
        daemon
        pidfile /opt/haproxy/haproxy.pid
        #debug
        #quiet

defaults
        log     global
        mode    http
        option  httplog
        option  dontlognull
        retries 3
        #redispatch
        maxconn 2000
        timeout connect         5000
        timeout client            50000
                   timeout server                     50000

listen  appli1-rewrite 0.0.0.0:10001
        cookie  SERVERID rewrite
        balance roundrobin

listen  appli2-insert 0.0.0.0:10002
        option  httpchk
        balance roundrobin
        cookie  SERVERID insert indirect nocache
        server  inst1 192.168.114.56:80 cookie server01 check inter 2000 fall 3
        server  inst2 192.168.114.56:81 cookie server02 check inter 2000 fall 3
        capture cookie vgnvisitor= len 32

        option  httpclose               # disable keep-alive

listen  appli3-relais 0.0.0.0:10003
        dispatch 192.168.135.17:80

        option  persist
        server  inst2 192.168.114.56:81 check inter 2000 fall 3 backup

listen  ssl-relay 0.0.0.0:8443
        option  ssl-hello-chk
        balance source
        server  inst1 192.168.110.56:443 check inter 2000 fall 3
        server  inst2 192.168.110.57:443 check inter 2000 fall 3
        server  back1 192.168.120.58:443 backup

listen  appli5-backup 0.0.0.0:10005
        option  httpchk *
        balance roundrobin
        cookie  SERVERID insert indirect nocache
        server  inst1 192.168.114.56:80 cookie server01 check inter 2000 fall 3
        server  inst2 192.168.114.56:81 cookie server02 check inter 2000 fall 3
        server  inst3 192.168.114.57:80 backup check inter 2000 fall 3
        capture cookie ASPSESSION len 32
        timeout server  20000

        option  httpclose               # disable keep-alive
        option  checkcache              # block response if set-cookie & cacheab
le

        rspidel ^Set-cookie:\ IP=       # do not let this cookie tell our intern
al IP address

        errorloc        502     http://192.168.114.58/error502.html
        errorfile       503     /opt/haproxy/errorfiles/503.http

啟動haproxy服務

建立服務啟動環境

useradd haproxy
mkdir /data/logs/haproxy
chown –R haproxy.haproxy /opt/haproxy
chown –R haproxy.haproxy /data/logs/haproxy

為haproxy加上日誌支援,

即將配置檔案中的log 127.0.0.1 local0新增具體日誌路徑。

vi /etc/rsyslog.conf

增加如下兩行

local0.* /data/logs/haproxy/haproxy.log
local1.* /data/logs/haproxy/haproxy.log

然後修改rsyslog引數,使它支援外來日誌。

vi /etc/sysconfig/rsyslog

SYSLOGD_OPTIONS=”-r -m 0”
重啟rsyslog服務。

/etc/init.d/rsyslog restart

編寫haproxy啟動指令碼:

#vi haproxy.sh
#!/bin/sh
#
# haproxy      Startup script for the haproxy daemon
#
# chkconfig: 2345 85 15
# description: Start and stop haproxy
# processname: haproxy
# config: /opt/haproxy/haproxy.cfg
# pidfile: /opt/haproxy/haproxy.pid


SROOT=/opt/haproxy
HAPROXY_OWNER=haproxy
RETVAL=0

# Source function library.
if [ -f /etc/init.d/functions ]; then
    . /etc/init.d/functions
elif [ -f /etc/rc.d/init.d/functions ] ; then
    . /etc/rc.d/init.d/functions
else
    exit 0
fi

start() {
    su - $HAPROXY_OWNER -c "$SROOT/sbin/haproxy -f $SROOT/haproxy.cfg"
    RETVAL=$?
    [ $? -eq 0 ] && echo "Haproxy started..."
}

stop() {
    su - $HAPROXY_OWNER -c "kill $(cat $SROOT/haproxy.pid)"
    RETVAL=$?
    [ $? -eq 0 ] && echo "Haproxy stoped..." || echo "some wrong has occured whe
n stoped the haproxy..."   
}


case "$1" in
    start)
        start
        ;;
    stop)
        stop
        ;;
    restart)
        stop
        start
        ;;
    *)
        echo "Usage: $0 {start|stop|restart}"
        RETVAL=1
esac
exit $RETVAL

將服務加到開機啟動

chmod +x haproxy.sh
cp haproxy.sh /etc/rc.d/init.d/haproxy
chkconfig –add haproxy
chkconfig –level 2345 haproxy on

啟動服務

/etc/init.d/haproxy start

如下則表示啟動成功。
這裡寫圖片描述

常見啟動錯誤

無法chroot的問題

[[email protected] soft]# /etc/init.d/haproxy start
[ALERT] 349/142919 (45886) : [/opt/haproxy/sbin/haproxy.main()] Cannot chroot(/usr/share/haproxy).

解決方案:將配置檔案裡的chroot /usr/share/haproxy一行註釋掉就好。

FD值,可開啟的最大檔案數限制值的問題

[[email protected] ~]# /etc/init.d/haproxy start
[WARNING] 338/142149 (60372) : [/opt/haproxy/sbin/haproxy.main()] Cannot raise FD limit to 8222.
[WARNING] 338/142149 (60372) : [/opt/haproxy/sbin/haproxy.main()] FD limit (1024) too low for maxconn=4096/maxsock=8222. Please raise ‘ulimit-n’ to 8222 or more to avoid any trouble.

解決方案:系統裡的能開啟的檔案描述符太小,程式裡的比較大,只要將系統裡的FD重新調大就好。

ulimit -n 8222

重啟就好了
檢視系統FD值可以用 ulimit -a

[[email protected] ~]# ulimit -a
core file size (blocks, -c) 0
data seg size (kbytes, -d) unlimited
scheduling priority (-e) 0
file size (blocks, -f) unlimited
pending signals (-i) 7771
max locked memory (kbytes, -l) 64
max memory size (kbytes, -m) unlimited
open files (-n) 1024
pipe size (512 bytes, -p) 8
POSIX message queues (bytes, -q) 819200
real-time priority (-r) 0
stack size (kbytes, -s) 10240
cpu time (seconds, -t) unlimited
max user processes (-u) 7771
virtual memory (kbytes, -v) unlimited
file locks (-x) unlimited

照網上一些部落格說的,有以下方法修改FD值:
1.在/etc/rc.local 中增加一行 ulimit -SHn 65535
2.在/etc/profile 中增加一行 ulimit -SHn 65535
3.在/etc/security/limits.conf最後增加如下兩行記錄
* soft nofile 65535
* hard nofile 65535
修改完後重新登入就可以看到了。

Contimeout引數不支援的問題

[[email protected] haproxy]# /etc/init.d/haproxy start
[WARNING] 338/150533 (60528) : parsing [/opt/haproxy/haproxy.cfg:27] : the ‘contimeout’ directive is now deprecated in favor of ‘timeout connect’, and will not be supported in future versions.
[WARNING] 338/150533 (60528) : parsing [/opt/haproxy/haproxy.cfg:28] : the ‘clitimeout’ directive is now deprecated in favor of ‘timeout client’, and will not be supported in future versions.
[WARNING] 338/150533 (60528) : parsing [/opt/haproxy/haproxy.cfg:29] : the ‘srvtimeout’ directive is now deprecated in favor of ‘timeout server’, and will not be supported in future versions.

解決方案:這說明contimeout這樣的引數型別太老了,新版本已經不支援該型別,請使用 timeout connect這樣的引數型別來使用。類似clitimeout、srvtimeout都是這樣設定。
contimeout 5000
clitimeout 50000
srvtimeout 50000
—>改為
timeout connect 5000
timeout client 50000
timeout server 50000
修改後如圖:
這裡寫圖片描述
再重啟服務就好了。

71行的srvtimeout 2000也是這樣改。

Starting haproxy: [WARNING] 349/142919 (45886) : parsing [/opt/haproxy/haproxy.cfg:72] : the ‘srvtimeout’ directive is now deprecated in favor of ‘timeout server’, and will not be supported in future versions.

解決方案:將71行的srvtimeout 20000 改為 timeout server 20000

類似的redispatch也是這樣,只要將redispatch註釋就好。

[[email protected] ~]# /etc/init.d/haproxy start
[WARNING] 339/041102 (40040) : parsing [/opt/haproxy/haproxy.cfg:22]: keyword ‘redispatch’ is deprecated in favor of ‘option redispatch’, and will not be supported by future versions.

解決方案:將配置檔案中的redispatch 註釋掉就好了。

Socket無法繫結的問題

[[email protected] ~]# /etc/init.d/haproxy restart
Haproxy stoped…
[ALERT] 338/151423 (60563) : Starting proxy webserver1: cannot bind socket [0.0.0.0:80]

解決方案:無法繫結socket,這是因為本地開啟了web服務綁定了80埠,或者其他應用程式佔用了該socket。
而且80埠<1024,只能由root使用者繫結。haproxy普通使用者無法繫結。
只要將埠號改為其他大於1024的就好。
修改/opt/haproxy/haproxy.cfg裡面的socket,將埠改為了8090,如下圖
這裡寫圖片描述
再重啟服務就好了。

Pid檔案無法建立的問題

[[email protected] haproxy]# /etc/init.d/haproxy start
[ALERT] 236/112258 (5538) : [haproxy.main()] Cannot create pidfile /opt/haproxy/haproxy.pid

解決方案:
1、檢視目錄是否存在,不存在則mkdir建立
2、檢視檔案所在位置許可權,沒有則chown -R haproxy.haproxy /opt/haproxy

Uid/user無效的問題

[[email protected] ~]# /etc/init.d/haproxy restart
Haproxy stoped…
[WARNING] 338/142429 (60406) : [/opt/haproxy/sbin/haproxy.main()] Failed to drop supplementary groups. Using ‘gid’/’group’ without ‘uid’/’user’ is generally useless.

解決方案:這是對haproxy.cfg裡面指定的使用者識別有問題。只要將uid與gid指定為我們想要的使用者即可。
這裡寫圖片描述
—-》改為如下圖
這裡寫圖片描述
再重啟就好了。

開啟檔案錯誤的問題

[[email protected] ~]# /etc/init.d/haproxy start
[ALERT] 339/082035 (40193) : parsing [/opt/haproxy/haproxy.cfg:87] : error opening file for custom error message <503>.
[ALERT] 339/082035 (40193) : Error(s) found in configuration file : /opt/haproxy/haproxy.cfg
[ALERT] 339/082035 (40193) : Fatal errors found in configuration.

解決方案:開啟檔案錯誤,這是因為/etc/haproxy/errors/503.http檔案不存在的問題。原始碼包目錄下的examples/errorfiles檔案裡面有該檔案,只要將它拷貝過來就好。

cp -r /opt/soft/haproxy-1.5.9/examples/errorfiles /opt/haproxy/

修改配置檔案裡的路徑

vi /opt/haproxy/haproxy.cfg

這裡寫圖片描述
改為
這裡寫圖片描述
再重啟服務就好了。

單臺haproxy負載均衡

環境說明:
haproxy主機:192.168.253.132 8090
web server1:192.168.253.129 80
web server2:192.168.253.130 80
web server3:192.168.253.131 80

修改配置檔案haproxy.cfg

vi /opt/haproxy/haproxy.cfg

增加如下listen欄位:

listen  admin_stats 0.0.0.0:8888
        option httplog
        stats refresh 30s
        stats uri /stats
        stats realm Haproxy Manager
        stats auth admin:admin

listen  webserver1 0.0.0.0:8090
        cookie  SERVERID rewrite
        balance roundrobin
        server  app1_1 192.168.253.129:80 cookie app1inst1 check inter 2000 rise
 2 fall 5
        server  app1_2 192.168.253.129:8081 cookie app1inst2 check inter 2000 ri
se 2 fall 5
        server  app1_3 192.168.253.130:8080 cookie app1inst3 check inter 2000 ri
se 2 fall 5
        server  app1_4 192.168.253.131:80 cookie app1inst4 check inter 2000 rise
 2 fall 5

重新啟動haproxy服務

/etc/init.d/haproxy restart

檢視監控介面

檢視輪詢效果

在位址列裡輸入http://192.168.253.132:8090就可以看到web介面了,它是將訪問平均分配到每臺主機的,預設每臺主機輪詢一次過

這裡寫圖片描述

這裡寫圖片描述

這裡寫圖片描述

這裡寫圖片描述

安裝keepalived

獲取keepalived

cd /opt/soft
wget http://www.keepalived.org/software/keepalived-1.2.16.tar.gz

編譯keepalived

tar –zxvf keepalived-1.2.16.tar.gz
cd keepalived-1.2.16
./configure --prefix=/opt/keepalived
make && make install

新增進系統服務

cp /opt/keepalived/etc/rc.d/init.d/keepalived /etc/rc.d/init.d/
cp /opt/keepalived/etc/sysconfig/keepalived /etc/sysconfig/
cp /opt/keepalived/sbin/keepalived /usr/sbin/
mkdir /etc/keepalived
cp /opt/keepalived/etc/keepalived/keepalived.conf /etc/keepalived/
chmod +x /etc/init.d/keepalived

haproxy主從高可用

環境說明:
VIP: 192.168.253.222
master: 192.168.253.132 8090
backup: 192.168.253.131 8090
web server1:192.168.253.129 80
web server2:192.168.253.130 80
web server3:192.168.253.131 80

配置master

修改keepalived.conf

vi /etc/keepalived/keepalived.conf

配置如下:

! Configuration File for keepalived

global_defs {
   notification_email {
        doublexi@189.cn    #發生故障時,接受資訊的email地址
   }
   notification_email_from doublexi@189.cn
   smtp_server 127.0.0.1
   smtp_connect_timeout 30
   router_id LVS_DEVEL
}

vrrp_script chk_haproxy {                           #自定義的監控指令碼
    script "/etc/keepalived/check_haproxy.sh"
    interval 2
    weight 2
}

vrrp_instance VI_1 {
    state MASTER                #從伺服器設為BACKUP
    interface eth0                                       #監聽介面
    virtual_router_id 51
    priority 100                                            #優先順序,backup機器上的優先順序要小與這個值
    advert_int 1                                          #檢查間隔
    authentication {
        auth_type PASS
        auth_pass 1111
    }
    track_script {                                        #自定義的監控指令碼
        chk_haproxy
    }
    virtual_ipaddress {                              #VIP地址,可以設多個
        192.168.253.222
    }
}

編寫haproxy服務狀態檢測指令碼

為了防止haproxy服務掛了,但是keepalived卻還正常,沒有切換到slave上,所以我們編寫這個指令碼來檢測haproxy服務的狀態,haproxy服務掛掉後,該指令碼會自動重啟haproxy服務,不成功,則關閉keepalived服務,自動切換到backup。

vi /etc/keepalived/chk_haproxy.sh
#!/bin/bash
if [ $(ps -C haproxy --no-header | wc -l) -eq 0 ];then
    /etc/init.d/haproxy start
fi
sleep 2
if [ $(ps -C haproxy --no-header | wc -l) -eq 0 ]; then
    /etc/init.d/keepalived stop
fi

啟動服務

service haproxy start
service keepalived start

檢視VIP如下
這裡寫圖片描述

配置backup

所有步驟都和master一樣,相當於master的一個映象。
修改keepalived.conf

vi /etc/keepalived/keepalived.conf

修改如下兩行
State MASTER 改為 state BACKUP
Priority 100 改為 priority 90
修改後如下圖
這裡寫圖片描述
啟動服務

service haproxy start
service keepalived start

高可用測試

停止master的keepalived服務

# service keepalived stop
# tail –f /var/log/messages

Dec 16 16:41:09 localhost Keepalived[45963]: Stopping Keepalived v1.2.16 (12/14,2015)
Dec 16 16:41:09 localhost Keepalived_vrrp[45966]: VRRP_Instance(VI_1) sending 0 priority
Dec 16 16:41:09 localhost Keepalived_vrrp[45966]: VRRP_Instance(VI_1) removing protocol VIPs.
Dec 16 16:41:09 localhost Keepalived_healthcheckers[45965]: Netlink reflector reports IP 192.168.253.222 removed

這裡寫圖片描述
發現master的vip已經釋放了。
再檢視backup上的日誌

# tail –f /var/log/messages
Dec  6 11:16:30 localhost Keepalived_vrrp[40281]: VRRP_Instance(VI_1) Entering MASTER STATE
Dec  6 11:16:30 localhost Keepalived_vrrp[40281]: VRRP_Instance(VI_1) setting protocol VIPs.
Dec  6 11:16:30 localhost Keepalived_healthcheckers[40280]: Netlink reflector reports IP 192.168.253.222 added
Dec  6 11:16:30 localhost Keepalived_vrrp[40281]: VRRP_Instance(VI_1) Sending gratuitous ARPs on eth0 for 192.168.253.222
Dec  6 11:16:32 localhost Keepalived_vrrp[40281]: Process [40729] didn't respond to SIGTERM

發現backup已經綁定了VIP
再將master上的keepalived服務啟動。

# tail –f /var/log/messages
Dec 16 16:59:21 localhost Keepalived_healthcheckers[1915]: Using LinkWatch kerne
l netlink reflector...
Dec 16 16:59:21 localhost Keepalived_vrrp[1917]: VRRP_Instance(VI_1) Transition
to MASTER STATE
Dec 16 16:59:21 localhost Keepalived_vrrp[1917]: VRRP_Instance(VI_1) Received lo
wer prio advert, forcing new election
Dec 16 16:59:22 localhost Keepalived_vrrp[1917]: VRRP_Instance(VI_1) Entering MA
STER STATE
Dec 16 16:59:22 localhost Keepalived_vrrp[1917]: VRRP_Instance(VI_1) setting pro
tocol VIPs.
Dec 16 16:59:22 localhost Keepalived_vrrp[1917]: VRRP_Instance(VI_1) Sending gra
tuitous ARPs on eth0 for 192.168.253.222
Dec 16 16:59:22 localhost Keepalived_healthcheckers[1915]: Netlink reflector rep
orts IP 192.168.253.222 added

發現master又重新綁定了vip
檢視backup日誌:

Dec  6 11:23:38 localhost Keepalived_vrrp[40281]: VRRP_Instance(VI_1) Received h
igher prio advert
Dec  6 11:23:38 localhost Keepalived_vrrp[40281]: VRRP_Instance(VI_1) Entering B
ACKUP STATE
Dec  6 11:23:38 localhost Keepalived_vrrp[40281]: VRRP_Instance(VI_1) removing p
rotocol VIPs.
Dec  6 11:23:38 localhost Keepalived_healthcheckers[40280]: Netlink reflector re
ports IP 192.168.253.222 removed

發現backup又重新釋放了vip

haproxy配置檔案詳解

####################全域性配置資訊########################
#######引數是程序級的,通常和作業系統(OS)相關#########

global
log 127.0.0.1 local0 #日誌輸出配置,所有日誌都記錄在本機,通過local0輸出
#log 127.0.0.1 local1 notice
#log loghost local0 info
ulimit-n 82000 #設定每個程序的可用的最大檔案描述符
maxconn 4096 #最大連線數
chroot /var/haproxy #chroot執行的路徑
uid 99 #所屬執行的使用者uid
gid 99 #所屬執行的使用者組
daemon #以後臺形式執行haproxy
nbproc 1 #程序數量(可以設定多個程序提高效能)
pidfile /var/run/haproxy.pid #haproxy的pid存放路徑,啟動程序的使用者必須有許可權訪問此檔案
debug #除錯模式,輸出啟動資訊到標準輸出
#quiet #安靜模式,啟動時無輸出
#####################預設的全域性設定######################
##這些引數可以被利用配置到frontend,backend,listen元件##
defaults
log global
mode http #所處理的類別 (#7層 http;4層tcp )
option httplog #日誌類別,採用httplog
maxconn 20480 #最大連線數
option httplog #日誌類別http日誌格式
option httpclose #每次請求完畢後主動關閉http通道
option dontlognull #不記錄健康檢查的日誌資訊
option forwardfor #如果後端伺服器需要獲得客戶端真實ip需要配置的引數,可以從Http Header中獲得客戶端ip
option redispatch #serverId對應的伺服器掛掉後,強制定向到其他健康的伺服器
option abortonclose #當伺服器負載很高的時候,自動結束掉當前佇列處理比較久的連線
stats refresh 30 #統計頁面重新整理間隔
retries 3 #3次連線失敗就認為服務不可用,也可以通過後面設定
balance roundrobin #預設的負載均衡的方式,輪詢方式
#balance source #預設的負載均衡的方式,類似nginx的ip_hash
#balance leastconn #預設的負載均衡的方式,最小連線
contimeout 5000 #連線超時
clitimeout 50000 #客戶端超時
srvtimeout 50000 #伺服器超時
timeout check 2000 #心跳檢測超時
####################監控頁面的設定#######################
listen admin_status #Frontend和Backend的組合體,監控組的名稱,按需自定義名稱
bind 0.0.0.0:65532 #監聽埠
mode http #http的7層模式
log 127.0.0.1 local3 err #錯誤日誌記錄
stats refresh 5s #每隔5秒自動重新整理監控頁面
stats uri /admin?stats #監控頁面的url
stats realm itnihao\ itnihao #監控頁面的提示資訊
stats auth admin:admin #監控頁面的使用者和密碼admin,可以設定多個使用者名稱
stats auth admin1:admin1 #監控頁面的使用者和密碼admin1
stats hide-version #隱藏統計頁面上的HAproxy版本資訊
stats admin if TRUE #手工啟用/禁用,後端伺服器(haproxy-1.4.9以後版本)
errorfile 403 /etc/haproxy/errorfiles/403.http
errorfile 500 /etc/haproxy/errorfiles/500.http
errorfile 502 /etc/haproxy/errorfiles/502.http
errorfile 503 /etc/haproxy/errorfiles/503.http
errorfile 504 /etc/haproxy/errorfiles/504.http
#################HAProxy的日誌記錄內容設定###################
capture request header Host len 40
capture request header Content-Length len 10
capture request header Referer len 200
capture response header Server len 40
capture response header Content-Length len 10
capture response header Cache-Control len 8
#######################網站監測listen配置#####################
###########此用法主要是監控haproxy後端伺服器的監控狀態############
listen site_status
bind 0.0.0.0:1081 #監聽埠
mode http #http的7層模式
log 127.0.0.1 local3 err #[err warning info debug]
monitor-uri /site_status #網站健康檢測URL,用來檢測HAProxy管理的網站是否可以用,正常返回200,不正常返回503
acl site_dead nbsrv(server_web) lt 2 #定義網站down時的策略當掛在負載均衡上的指定backend的中有效機器數小於1臺時返回true
acl site_dead nbsrv(server_blog) lt 2
acl site_dead nbsrv(server_bbs) lt 2
monitor fail if site_dead #當滿足策略的時候返回503,網上文件說的是500,實際測試為503
monitor-net 192.168.16.2/32 #來自192.168.16.2的日誌資訊不會被記錄和轉發
monitor-net 192.168.16.3/32
########frontend配置############
#####注意,frontend配置裡面可以定義多個acl進行匹配操作########
frontend http_80_in
bind 0.0.0.0:80 #監聽埠,即haproxy提供web服務的埠,和lvs的vip埠類似
mode http #http的7層模式
log global #應用全域性的日誌配置
option httplog #啟用http的log
option httpclose #每次請求完畢後主動關閉http通道,HA-Proxy不支援keep-alive模式
option forwardfor #如果後端伺服器需要獲得客戶端的真實IP需要配置次引數,將可以從Http Header中獲得客戶端IP
########acl策略配置#############
acl itnihao_web hdr_reg(host) -i ^(www.itnihao.cn|ww1.itnihao.cn)$
#如果請求的域名滿足正則表示式中的2個域名返回true -i是忽略大小寫
acl itnihao_blog hdr_dom(host) -i blog.itnihao.cn
#如果請求的域名滿足www.itnihao.cn返回true -i是忽略大小寫
#acl itnihao hdr(host) -i itnihao.cn
#如果請求的域名滿足itnihao.cn返回true -i是忽略大小寫
#acl file_req url_sub -i killall=
#在請求url中包含killall=,則此控制策略返回true,否則為false
#acl dir_req url_dir -i allow
#在請求url中存在allow作為部分地址路徑,則此控制策略返回true,否則返回false
#acl missing_cl hdr_cnt(Content-length) eq 0
#當請求的header中Content-length等於0時返回true
########acl策略匹配相應#############
#block if missing_cl
#當請求中header中Content-length等於0阻止請求返回403
#block if !file_req || dir_req
#block表示阻止請求,返回403錯誤,當前表示如果不滿足策略file_req,或者滿足策略dir_req,則阻止請求
use_backend server_web if itnihao_web
#當滿足itnihao_web的策略時使用server_web的backend
use_backend server_blog if itnihao_blog
#當滿足itnihao_blog的策略時使用server_blog的backend
#redirect prefix http://blog.itniaho.cn code 301 if itnihao
#當訪問itnihao.cn的時候,用http的301挑轉到http://192.168.16.3
default_backend server_bbs
#以上都不滿足的時候使用預設server_bbs的backend
##########backend的設定##############
#下面我將設定三組伺服器 server_web,server_blog,server_bbs
###########################backend server_web#############################
backend server_web
mode http #http的7層模式
balance roundrobin #負載均衡的方式,roundrobin平均方式
cookie SERVERID #允許插入serverid到cookie中,serverid後面可以定義
option httpchk GET /index.html #心跳檢測的檔案
server web1 192.168.16.2:80 cookie web1 check inter 1500 rise 3 fall 3 weight 1
#伺服器定義,cookie 1表示serverid為web1,check inter 1500是檢測心跳頻率rise 3是3次正確認為伺服器可用,
#fall 3是3次失敗認為伺服器不可用,weight代表權重
server web2 192.168.16.3:80 cookie web2 check inter 1500 rise 3 fall 3 weight 2
#伺服器定義,cookie 1表示serverid為web2,check inter 1500是檢測心跳頻率rise 3是3次正確認為伺服器可用,
#fall 3是3次失敗認為伺服器不可用,weight代表權重
###################################backend server_blog###############################################
backend server_blog
mode http #http的7層模式
balance roundrobin #負載均衡的方式,roundrobin平均方式
cookie SERVERID #允許插入serverid到cookie中,serverid後面可以定義
option httpchk GET /index.html #心跳檢測的檔案
server blog1 192.168.16.2:80 cookie blog1 check inter 1500 rise 3 fall 3 weight 1
#伺服器定義,cookie 1表示serverid為web1,check inter 1500是檢測心跳頻率rise 3是3次正確認為伺服器可用,fall 3是3次失敗認為伺服器不可用,weight代表權重
server blog2 192.168.16.3:80 cookie blog2 check inter 1500 rise 3 fall 3 weight 2
#伺服器定義,cookie 1表示serverid為web2,check inter 1500是檢測心跳頻率rise 3是3次正確認為伺服器可用,fall 3是3次失敗認為伺服器不可用,weight代表權重
###################################backend server_bbs###############################################
backend server_bbs
mode http #http的7層模式
balance roundrobin #負載均衡的方式,roundrobin平均方式
cookie SERVERID #允許插入serverid到cookie中,serverid後面可以定義
option httpchk GET /index.html #心跳檢測的檔案
server bbs1 192.168.16.2:80 cookie bbs1 check inter 1500 rise 3 fall 3 weight 1
#伺服器定義,cookie 1表示serverid為web1,check inter 1500是檢測心跳頻率rise 3是3次正確認為伺服器可用,fall 3是3次失敗認為伺服器不可用,weight代表權重
server bbs2 192.168.16.3:80 cookie bbs2 check inter 1500 rise 3 fall 3 weight 2
#伺服器定義,cookie 1表示serverid為web2,check inter 1500是檢測心跳頻率rise 3是3次正確認為伺服器可用,fall 3是3次失敗認為伺服器不可用,weight代表權重

相關推薦

Haproxy+keepalived負載均衡配置

本文主要介紹Haproxy負載均衡的安裝配置以及結合keepalived保證高可用,概要如下: -安裝haproxy -配置haporxy -單臺haproxy負載均衡配置 -安裝keepalived -配置keepalived -haproxy主從

實現基於Haproxy+Keepalived負載均衡高可用架構

keepalived+haproxy一:環境準備centos系統服務器4臺,兩臺用於做haproxy主從架構,兩臺作為後端server,服務器配置好yum源,防火墻關閉,關閉selinux,各節點時鐘服務同步,各節點之間可以通過主機名互相通信。二:安裝步驟1.iptables –F &&set

LNMP+HAProxy+Keepalived負載均衡 - LNMP基礎環境準備

環境版本說明: 伺服器系統:CentOS 7.5: cat /etc/redhat-release CentOS Linux release 7.5.1804 (Core) # 輸出結果 伺服器IP地址: 伺服器A:192.168.6.

LVS+Keepalived負載均衡配置部署

相關概念 一、準備工作 1. 伺服器、作業系統(當前CentOS6.6 x86_64)、網路環境(服務期間網路互通) ; # 作業系統:CentOS6.6 x86_64# 伺服器 (LVS主備各1臺,WEB伺服器3臺,圖片伺服器2臺)WEBServer負載虛擬IP:192.168.0.20IMGServ

Keepalived + Haproxy實現負載均衡高可用

liunx haproxy 高可用基於LVS實現Keepalived的高可用見:http://amelie.blog.51cto.com/12850951/1979636負載均衡為將用戶並發請求轉發到後臺若幹服務器,以分流方式均衡負載。均衡負載借用的軟件,我們這裏是Haproxy。而負責轉發的服務器,我們稱之

Keepalived高可用服務器以及haproxy負載均衡

.com 宕機 coo str 調度 如果 vip 並行 延遲 Keepalived高可用服務器以及haproxy的負載均衡 Keepalive運行原理 Keepalived檢測每個服務節點狀態 當服務器節點異常或工作出現故障,keepalived將故障節點從集群從集群系統

Linux叢集儲存——day3——keepalived的高可用服務、HAProxy負載均衡服務

埠監測    nmap  命令進行測試     需要裝包 nmap     可以進行檢測具體的IP的某個埠 nmap -sS -n -p 埠 檢測的主機IP | grep open [ $? -eq 0 ] &&

Nginx負載均衡配置+keepalived高可用

1.什麼是負載均衡?隨著應用各個核心模組業務量的提高,訪問量和資料流量的快速增長,其處理能力和計算強度也相應地增大,使得單一的伺服器裝置根本無法承擔。在此情況下,如果扔掉現有裝置去做大量的硬體升級,這樣將造成現有資源的浪費,而且如果再面臨下一次業務量的提升時,這又將導致再一次硬體升級的高額成本投入,甚至效能再

LVS+Keepalived實現MySQL從庫讀操作負載均衡配置

password lob new 信息 如果 ldoc 負載均衡。 path ignore 轉載於osyunwei 說明: 操作系統:CentOS 5.X 64位 MySQL主服務器:192.168.21.126 MySQL從服務器:192.168.21.127,192.1

nginx Tomcat keepalived 負載均衡 高可用配置

1.什麼是負載均衡       負載均衡(Load Balance)就是將伺服器的單位時間內的訪問量分攤到多臺伺服器上進行執行的解決方案,從而共同完成工作任務。2.nginx 負載均衡演算法1).輪詢(預設)   每個請求按時間順序逐一分配到不同的後端伺服器,

Keepalived+LVS高可用負載均衡配置

說明 LVS是Linux Virtual Server的簡寫,意即Linux虛擬伺服器,是一個虛擬的伺服器集群系統。本專案在1998年5月由章文嵩博士成立,是中國國內最早出現的自由軟體專案之一。 目前有三種IP負載均衡技術(VS/NAT、VS/TUN和VS/DR);十

nginx負載均衡配置

war eal ade remote dock lis upstream doc 配置 http {   upstream docker {       server 192.168.88.106:10001;       server 192.168.88.1

BasePath問題-nginx負載均衡配置

.... class ip地址 htm post 細致 rpo 均衡 css 在配置nginx+tomcat好後。將項目加入到webapps中。發現訪問主頁時,css與js訪問不到,導致主頁布局出錯。細致分析原因後發現css與js的地址是basePath得出的。而bas

Nginx實現集群的負載均衡配置過程詳解

post 發現 forward too strong eight glin 內容 請求 Nginx實現集群的負載均衡配置過程詳解 Nginx 的負載均衡功能,其實實際上和 nginx 的代理是同一個功能,只是把代理一臺機器改為多臺機器而已。 Nginx 的負載均衡

傻瓜式安裝nginx以及負載均衡配置

welcom font ron nginx c++ ima 端口 .cn alt 概述 需求 做了一個對內的http api應用。由於只有一臺服務器,考慮到升級問題(即升級時會造成幾秒鐘用戶訪問不了),決定搭一個nginx,公共端口:9999,部署

MySQL 高可用:mysql+Lvs+Keepalived 負載均衡及故障轉移

ica 目錄 details software fwm 多個 優先級 sql 服務器 規則 轉自 MySQL 高可用:mysql+Lvs+Keepalived 負載均衡及故障轉移 - KK ——專註數據 - 博客頻道 - CSDN.NETh

LVS負載均衡配置

lvs負載均衡配置LVS環境安裝部署以下安裝部署基於以下環境 系統centos7.2訪問烏龜運維官網點擊這裏只安裝不介紹——》》》》環境如圖1, 安裝ipvsadm2,配置負載均衡成功如下圖 就是這麽簡單 —–>>>>LVS負載均衡配置

nginx四層負載均衡配置

mysql nginx四層負載均衡配置 客戶端 配置文件 stream nginx四層負載均衡配置代理Mysql集群環境如下:ip 192.168.6.203 Nginxip 192.168.6.*(多臺) Mysql步驟一查看Nginx是否安裝stream模塊沒安裝則進行安裝 操作步驟如

Nginx負載均衡配置實例詳解

負載均衡 命令 成功 介紹 nginx 重啟nginx 不能 測試 forward [導讀] 負載均衡是我們大流量網站要做的一個東西,下面我來給大家介紹在Nginx服務器上進行負載均衡配置方法,希望對有需要的同學有所幫助哦。負載均衡先來簡單了解一下什麽是負載均衡,

實現基於Haproxy_NAT+Keepalived負載均衡高可用架構

haproxy實驗思路:1.做這個實驗首先可以想象一個場景,用戶訪問webserver的時候首先會經過調度器,首先需要明白的一點就是一般公司一般是在內網,客戶端是通過外網訪問webserver的。2.haproxy是一個負載均衡器,Keepalived通過VRRP功能能再結合LVS負載均衡軟件即可部署一個高性