packmaker和haproxy實現的負載均衡和高可用叢集
pacemaker實現高可用叢集:
兩個節點的部署完全相同
server3—–>節點1—->haproxy—->pacemaker/corosync(心跳)
server4—–>節點2—->haproxy—->pacemaker/corosync(心跳)
server3:
節點上安裝corosync心跳
yum install packmaker corosync -y
cd /etc/corosync/
cp corosync.conf.example corosync.conf
vim corosync.conf
totem {
version: 2
secauth: off
threads: 0
interface {
ringnumber: 0
bindnetaddr: 172.25.30.0 #子網段
mcastaddr: 226.94.1.30 #廣播地址修改每個人都要不一樣否則會出現錯亂
mcastport: 5435 #修改廣播地址埠
ttl: 1 #生存時間值
}
}
service {
name: pacemaker
var: 0 #開啟服務只需要開一個如果是1就要開啟corosync還需要開啟pacemaker服務
}
/etc/init.d/corosync start
scp corosync.conf server4:/etc/corosync/ #兩個節點必須保證廣播地址和埠一致
安裝互動式管理軟體
yum install pssh-2.3.1-2.1.x86_64.rpm crmsh-1.2.6-0.rc2.2.1.x86_64.rpm -y
#安裝互動式管理軟體
crm_verfiy -VL #檢查語法錯誤會發現沒有fence高階群檢測如果只有兩個節點就不構成叢集也會報錯因此我們需要關閉fence;忽略檢測
測試兩個節點狀態:
crm_mon #在此之前檢視兩個節點之間的心跳是否保持連線
[root@server3 corosync]# crm_verify -VL
crm(live)configure# property stonith-enabled=false
crm(live)configure# primitive vip ocf:heartbeat:IPad
dr2 params ip=172.25.30.100 cidr_netmask=24 op monitor interval=1min
當兩個節點有一個壞掉就不夠叢集com_mon會發現節點狀態沒有online
crm(live)configure# property no-quorum-policy=ignore
新增haproxy資源
crm(live)configure# primitive haproxy lsb:haproxy op monitor interval=1min
因為可能會出現haproxy在節點1 VIP在另一個節點就會出現資源分離因此我們需要把他們繫結在一個組裡
crm(live)configure# group hagroup vip haproxy
standby讓該節點歇菜誰執行誰歇菜
crm node standby
online 讓改節點重新開啟服務
crm node online
[[email protected] corosync]# crm_verify -VL
物理機上開啟fence服務:把fence_xvm.key傳給節點/etc/cluster
systemctl start fence_virtd.service
cd /etc/cluster/
scp fence_xvm.key root@172.25.30.3:/etc/cluster/
節點上安裝fence:
yum install /usr/sbin/fence_xvm
mkdir /etc/cluster
ls /etc/cluster/ #檢視有沒有fence_xvm.key
stonith_admin -I
stonith_admin -M -a fence_xvm #啟用fence_xvm服務
crm(live)configure# property stonith-enabled=true #在叢集中開啟fence
crm(live)configure# primitive vmfence stonith:fence_xvm params pcmk_host_map="server3:test3;server4:test4" op monitor interval=1min #在節點新增fence_xvm服務 pcmk_host_map節點對映 monitor監控 interval=1min每隔一分鐘監控一次如果有節點壞掉直接爆頭
fence是在對立的一邊服務和VIP在哪邊fence就在他對立的一邊
測試當一個節點trash掉(執行 echo c > /etc/sysrq_trigger 核心崩潰)
fence就會跑到壞掉的節點上
fence_xvm -H test4 #test1讓test4重啟斷電
crm_mon #監控節點工作狀態
重啟之後將心跳服務開啟從而建立節點之間的聯絡
/ect/init.d/corosync start
crm node online #讓節點上線
所有節點配置:
相關推薦
saltstack部署實現nginx和apache的負載均衡及高可用(批量實現)
一 saltstack的介紹 SaltStack是一個伺服器基礎架構集中化管理平臺,具備配置管理、遠端執行、監控等功能,基於Python語言實現,結合輕量級訊息佇列(ZeroMQ)與Python第三方模組(Pyzmq、PyCrypto、Pyjinjia2、python-m
haproxy+keepalived實現負載均衡及高可用
keepalived+haproxy HAProxy是一個使用C語言編寫的自由及開放源代碼軟件,其提供高性能性、負載均衡,以及基於TCP和HTTP的應用程序代理。相較與 Nginx,HAProxy 更專註與反向代理,因此它可以支持更多的選項,更精細的控制,更多的健康狀態檢測機制和負載均衡算法。 H
解決Nginx + Keepalived主從雙機熱備+自動切換,實現負載均衡及高可用
解決Nginx + Keepalived主從雙機熱備+自動切換,實現負載均衡及高可用 IP 伺服器 服務 192.168.1.10 lb-node1 Nginx、kee
haproxy負載均衡及高可用叢集
Haproxy HAProxy 提供高可用性、負載均衡以及基於 TCP 和 HTTP 應用的代理,支援虛擬主機,它是免費、快速並且可靠的一種解決方案。HAProxy 特別適用於那些負載特大的 web 站點, 這些站點通常又需要會話保持或七層處理。HAProxy 執行在當前的
Keepalived + Haproxy實現負載均衡高可用
liunx haproxy 高可用基於LVS實現Keepalived的高可用見:http://amelie.blog.51cto.com/12850951/1979636負載均衡為將用戶並發請求轉發到後臺若幹服務器,以分流方式均衡負載。均衡負載借用的軟件,我們這裏是Haproxy。而負責轉發的服務器,我們稱之
使用nginx實現負載均衡和動靜分離
nginx實現負載均衡和動態分離使用nginx實現負載均衡和動靜分離 在192.168.221.10這臺機器上源碼編譯安裝nginx yum -y install gcc gcc-c++ autoconf automake zib zib-devel openssl openssl-devel pcre
專案部署、收集靜態檔案、nginx和uwsgi實現負載均衡。
專案部署 1)靜態檔案伺服器 開發階段: live-server 部署階段: nginx 域名: www.meiduo.site Django專案靜態檔案收集: # 設定setting配置檔案 STATIC_ROOT = '指定收集靜態檔案的儲存目錄'
lnmt實現負載均衡和反向代理
需求說明 搭建lnmt環境,實現反向代理和負載均衡 環境說明 ip 伺服器型別 172.16.11.18 tomcat 172.16.11.
nginx實現負載均衡和動靜分離
這篇文章主要為大家詳細介紹了nginx實現負載均衡和動靜分離,具有一定的參考價值,感興趣的小夥伴們可以參考一下 nginx配置(windows配置),供大家參考,具體內容如下 以下是我的專案用到的一份配置檔案 #user nobody; worker_processes 4; #程序數,
Windows 通過Nginx實現負載均衡和反向代理配置
Nginx版本安裝地址 http://nginx.org/en/download.html 找到nginx.conf檔案,修改兩個地方(在安裝檔案conf資料夾中) 新增伺服器池,設定2臺伺服器,權重級別都設定2 #設定負載均衡的伺服器列表 #upstream表示負載伺服器
SpringCloud Zuul實現負載均衡和熔斷機制
一、場景 筆者就Zuul閘道器下實現其負載均衡與熔斷機制(雪崩)進行實踐,前提是已經匯入zuul相關依賴 springboot版本:1.5.9.RELEASE springcloud版本:Dalston.SR5 <dependencies> <d
nginx+tomcat+redis叢集實現負載均衡和session同步的步驟和問題處理方法
最近在研究nginx+tomcat的負載均衡功能, 因為需要實現failover時使用者無感知的效果,所以我考慮使用tomcat的session同步方式來實現。網上能查到的東西我就直接貼連結了,我把搭建這套系統的過程,與遇到的坑的處理方式說明一下。 我使用的系
Ribbon、Feign和Eureka實現負載均衡
現有兩個SpringBoot應用,應用 A和應用B:應用A通過Feign遠端呼叫應用B,但如果應用B單個應用無法支撐應用A的大量請求,則可如下實現應用B的多例項。1.應用B多個例項都註冊到同一個Eureka,且所有例項的配置檔案中的:spring.application.na
配置nginx實現負載均衡和HTTPS
nginx的配置系統由一個主配置檔案和其他一些輔助的配置檔案構成。這些配置檔案均是純文字檔案,全部位於nginx安裝目錄下的conf目錄下。 配置檔案中以#開始的行,或者是前面有若干空格或者TAB,然後再跟#的行,都被認為是註釋,也就是隻對編輯檢視檔案的使用者
Heartbeat + haproxy + MySQL雙主複製 實現讀寫負載均衡及高可用
目錄 四、總結 參考: 上一篇我們使用Heartbeat的HA功能,實現MySQL主從複製的自動故障切換。它的工作原理是:當Heartbeat啟動時,會將VIP繫結到haresources檔案中指定
用jk整合Apache和tomcat實現負載均衡
最近剛看完一些關於如何用jk整合Apache和tomcat的資料,為了防止自己忘記,把它們在這裡都寫下來。部分內容摘抄於網路。 首先下載tomcat, apache和jk。 1. 下載, 安裝於“C:/Program Files/Apache Software Foundat
bonding-多網絡卡繫結一起,作為一個網絡卡使用,實現負載均衡和提高頻寬
linux雙網絡卡繫結一個IP地址,實質工作就是使用兩塊網絡卡虛擬為一塊,使用同一個IP地址,是我們能夠得到更好的更快的服務。其實這項技術 在 Sun和Cisco中早已存在,被稱為Trunking和Etherchannel技術,在Linux的2.4.x的核心中也採用這這種
Linux中Apache+Tomcat+JK實現負載均衡和群集的完整過程
個人原創,一個字一個字地碼的,尊重版權,轉載請註明出處! 最近在開發的專案需要承受很高的併發量。綜合各種情況,決定使用Apache+Tomcat+JK的方式實現負載均衡,並且作為一個統一的服務還要實現群集(同步Session)。 在網上找了很多資料,都是零零散散的,沒有一個完整的過程。通過幾天的努力,完
Keepalived+Nginx實現前端負載均衡的高可用
keepalived+nginx實現前端負載均衡的高可用一、實驗前準備時間同步、關閉iptables+selinux、各主機能相互解析在192.168.0.101和192.168.0.102上安裝Keepalived和Nginx,通過Nginx負載均衡至192.168.0.103及192.168.0.104上
nginx反向代理tomacat+keepalived實現動靜分離、負載均衡、高可用
時間 超時 error css 權限命令 上傳 轉發 onf ioc 本文的動靜分離主要是通過nginx+tomcat來實現,其中nginx處理圖片、html、JS、CSS等靜態文件,tomcat處理jsp、servlet等動態請求 服務器名稱