Redis 哨兵高可用(Sentinel)
阿新 • • 發佈:2021-02-12
哨兵機制是 Redis 高可用中重要的一環,其核心是 **通過高可用哨兵叢集,監控主從複製的健康狀態,並實現自動災備**:
參與
假設當前哨兵叢集總共有 m 個節點,當 quorum 設定為 n 時(n ≤ m)
### 哨兵發現
哨兵利用了 Redis 的 **釋出/訂閱** 實現來實現互相通訊,哨兵和主庫建立連線後:
- 向主庫上名為 `__sentinel__:hello` 的頻道釋出訊息,將自己的 IP 和埠告知其他節點
- 訂閱 `__sentinel__:hello` 訊息,獲得其他哨兵釋出的連線資訊
當多個哨兵例項都在主庫上做了釋出和訂閱操作後,它們互相感知到彼此的 IP 地址和埠。
因此擴容哨兵叢集十分簡單,只需要啟動一個新的哨兵節點即可,剩餘的操作交由自動發現機制完成即可。
### 從庫發現
哨兵向主庫傳送 `INFO` 命令,主庫接受到這個命令後,就會把從庫列表返回給哨兵。
然後哨兵根據從庫列表中的連線資訊,和每個從庫建立連線,並在這個連線上持續地對從庫進行監控。
同時,哨兵也會向從庫傳送 `INFO` 命令以獲取以下資訊:
- **run_id :** 從庫的執行ID
- **slave_priority :** 從庫的優先順序
- **slave_repl_offset :** 從庫的複製偏移量
### 節點下線
哨兵永遠不會忘記已經見過的節點,無論這個節點是哨兵還是從庫。如果需要下線叢集中的節點時,需要用到`SENTINEL RESET`命令:
- 當需要下線哨兵節點時,首先停止該節點程序,然後在剩餘哨兵節點上執行`SENTINEL RESET *`更新叢集資訊
- 當需要下線某個 master 的從庫時,首先停止該節點程序,然後在所有哨兵節點上執行`SENTINEL RESET `更新監控列表
# 狀態監控
為了保證主庫的可用性,哨兵叢集會以一定的間隔向主從庫傳送`PING`命令,並根據命令的返回結果判斷主庫是否健康:
- 返回值為`+PONG`、`-LOADING`或`-MASTERDOWN`,則認為這個節點健康
- 返回其他值或沒有響應,則認為這個節點不健康
不健康的狀態持續超過 `down-after-milliseconds`,則認為這個節點已經下線。
還有一種特殊情況:某個本應是 master 的節點,在`INFO`命令返回值中將自己標榜為 slave,那麼哨兵也會認為該節點已經下線。
為了降低誤判率,哨兵叢集將節點下線分為兩個階段:
- 主觀下線`SDOWN`:某個 sentinel 例項認為該節點已經下線
- 客觀下線`ODOWN`:某個 sentinel 通過 `SENTINEL is-master-down-by-addr` 命令向其他節點詢問,發現同時有 **quorum** 個 sentinel 例項認為該節點已經下線
只有 master 節點會被標記為`ODOWN`,並且僅當 master 節點被標記為`ODOWN`時才肯會觸發 failover 流程。而 slave 與 sentinel 節點僅會被標記為`SDOWN`。
# 故障轉移
故障轉移過程被設計為一個非同步的狀態機,其主要步驟如下:
```c
void sentinelFailoverStateMachine(sentinelRedisInstance *ri) {
serverAssert(ri->flags & SRI_MASTER);
if (!(ri->flags & SRI_FAILOVER_IN_PROGRESS)) return;
switch(ri->failover_state) {
// 選舉 leader
case SENTINEL_FAILOVER_STATE_WAIT_START:
sentinelFailoverWaitStart(ri);
break;
// 從已下線 master 的 slave 中挑選出一個候選節點
case SENTINEL_FAILOVER_STATE_SELECT_SLAVE:
sentinelFailoverSelectSlave(ri);
break;
// 向候選節點發送 SLAVEOF NO ONE 命令將其轉化為 master 節點
case SENTINEL_FAILOVER_STATE_SEND_SLAVEOF_NOONE:
sentinelFailoverSendSlaveOfNoOne(ri);
break;
// 通過 INFO 命令檢查新的 master 節點是否已經就緒
case SENTINEL_FAILOVER_STATE_WAIT_PROMOTION:
sentinelFailoverWaitPromotion(ri);
break;
// 向剩餘的 slave 節點發送 SLAVEOF 命令指向新的 master
case SENTINEL_FAILOVER_STATE_RECONF_SLAVES:
sentinelFailoverReconfNextSlave(ri);
break;
}
}
```
## 選舉 leader
當 master 被判斷為客觀下線時,會觸發一次故障轉移。為了保證系統最終能夠收斂於一致的狀態,每次對主從配置進行修改前,都會將變更關聯到一個全域性唯一的單調遞增版本號 —— 配置紀元`epoch`:**epoch 較小的變更會被更大的變更覆蓋,從而保證來併發修改的分散式一致性**。
此外,哨兵叢集每個會為每個`epoch`選舉出一個 leader 來實施配置變更,避免發生不必要的故障轉移:
選舉通過命令`SENTINEL IS-MASTER-DOWN-BY-ADDR `完成:
```c
char *sentinelVoteLeader(sentinelRedisInstance *master, uint64_t req_epoch, char *req_runid, uint64_t *leader_epoch) {
// 如果投票請求的 epoch 比已知更大,則更新本地的 epoch
if (req_epoch > sentinel.current_epoch) {
sentinel.current_epoch = req_epoch;
sentinelFlushConfig();
sentinelEvent(LL_WARNING,"+new-epoch",master,"%llu",
(unsigned long long) sentinel.current_epoch);
}
// 如果投票請求的的 epoch 比當前 leader 更大
if (master->leader_epoch < req_epoch && sentinel.current_epoch <= req_epoch)
{
// 根據 FCFS 原則,增將 epoch 的票投給該 sentinel
sdsfree(master->leader);
master->leader = sdsnew(req_runid);
master->leader_epoch = sentinel.current_epoch;
sentinelFlushConfig();
sentinelEvent(LL_WARNING,"+vote-for-leader",master,"%s %llu",
master->leader, (unsigned long long) master->leader_epoch);
// 如果是接收到來自其他 sentinel 的投票請求,則更新 failover 開始時間
// 避免本例項在 failover timeout 時間內觸發不必要的投票
if (strcasecmp(master->leader,sentinel.myid))
master->failover_start_time = mstime()+rand()%SENTINEL_MAX_DESYNC;
}
// 小於 sentinel.current_epoch 的請求會被忽略
// 更新 leader 資訊
*leader_epoch = master->leader_epoch;
return master->leader ? sdsnew(master->leader) : NULL;
}
```
該選舉流程是 [**Raft**](https://www.cnblogs.com/buttercup/p/12903126.html) 協議的簡化版,有興趣的朋友可以深入瞭解。
## 篩選 slave
為了保證新的 master 擁有最新的狀態,leader 會排除以下 slave 節點:
- 排除所有處於主觀下線狀態的節點(節點健康)
- 排除最近 5 秒內沒有響應 leader 發出 INFO 命令的節點(通訊正常)
- 排除與原 master 斷線時間超過 `down-after-milliseconds * 10` 的節點(副本較新)
最後,按照 **slave_priority**、**slave_repl_offset**、**run_id** 對進行排序,選擇其中**優先順序最高、偏移量最大、執行ID最小**的節點作為新的 master。
## 提升 master
首先呼叫`sentinelFailoverSendSlaveOfNoOne`提升候選節點為 master:
```c
void sentinelFailoverSendSlaveOfNoOne(sentinelRedisInstance *ri) {
int retval;
// 如果候選節點不可用,則一直嘗試直到 failover 超時
if (ri->promoted_slave->link->disconnected) {
if (mstime() - ri->failover_state_change_time > ri->failover_timeout) {
sentinelEvent(LL_WARNING,"-failover-abort-slave-timeout",ri,"%@");
sentinelAbortFailover(ri);
}
return;
}
// 傳送 SLAVEOF ON ONE 命令並等待其轉化為 master
retval = sentinelSendSlaveOf(ri->promoted_slave,NULL,0);
if (retval != C_OK) return;
sentinelEvent(LL_NOTICE, "+failover-state-wait-promotion",
ri->promoted_slave,"%@");
ri->failover_state = SENTINEL_FAILOVER_STATE_WAIT_PROMOTION;
ri->failover_state_change_time = mstime();
}
```
之後呼叫`sentinelFailoverReconfNextSlave`令剩餘 slave 複製新的 master 節點:
```c
void sentinelFailoverReconfNextSlave(sentinelRedisInstance *master) {
// ...
// 批量調整 slave 節點,並保證每批數量不超過 parallel syncs 配置
di = dictGetIterator(master->slaves);
while(in_progress < master->parallel_syncs &&
(de = dictNext(di)) != NULL)
{
sentinelRedisInstance *slave = dictGetVal(de);
int retval;
// 跳過調整完成的節點
if (slave->flags & (SRI_PROMOTED|SRI_RECONF_DONE)) continue;
// 如果 slave 長時間沒有完成配置修改,則依然認為已經完成
// 哨兵節點會在後續流程中檢測出配置異常並進行修復
if ((slave->flags & SRI_RECONF_SENT) &&
(mstime() - slave->slave_reconf_sent_time) >
SENTINEL_SLAVE_RECONF_TIMEOUT)
{
sentinelEvent(LL_NOTICE,"-slave-reconf-sent-timeout",slave,"%@");
slave->flags &= ~SRI_RECONF_SENT;
slave->flags |= SRI_RECONF_DONE;
}
// 跳過已發出過命令或已經下線的 slave 節點
if (slave->flags & (SRI_RECONF_SENT|SRI_RECONF_INPROG)) continue;
if (slave->link->disconnected) continue;
// 傳送 SLAVEOF 令其複製新的 master
retval = sentinelSendSlaveOf(slave,
master->promoted_slave->addr->ip,
master->promoted_slave->addr->port);
if (retval == C_OK) {
slave->flags |= SRI_RECONF_SENT;
slave->slave_reconf_sent_time = mstime();
sentinelEvent(LL_NOTICE,"+slave-reconf-sent",slave,"%@");
in_progress++;
}
}
// 檢查是否已經完成所有 slave 的配置修改
sentinelFailoverDetectEnd(master);
}
```
當已下線的 master 再次上線時,哨兵節點會檢測出其配置已經失效,並會將其作為 slave 對待,令其複製新的 master 資料。這也意味著該節點上未被同步到新 master 的那部分資料會永遠丟失。
為了減少資料丟失,可以配合引數`min-replicas-to-write`與`min-replicas-max-lag`阻止客戶端向失去 slave 的 master 節點寫入資料。
# 事件API
為了方便客戶端感知叢集狀態變化,哨兵叢集定義了一系列的事件`event`,客戶端可以通過訂閱 sentinel 節點上與這些事件同名的 channel 來監聽狀態變化。
大部分事件的內容格式如下(**@** 之後的部分是可選的):
```text
@
```
這裡列出部分可供監聽事件:
- **switch-master :** 最新的 master 節點資訊,其內容為 **<master-name> <oldip> <oldport> <newip> <newport>**
- **+sdown :** 某節點進入主觀下線狀態
- **-sdown :** 某節點退出主觀下線狀態
- **+odown :** 某節點進入客觀下線狀態
- **-odown :** 某節點退出客觀下線狀態
- **+tilt :** 哨兵叢集進入 TILT 模式
- **-tilt :** 哨兵叢集退出 TILT 模式
- **+reset-master :** 重置了某個 master-name 下的監控資訊
- **+failover-detected :** 感知到故障轉移(可能是由 sentinel 發起的,也可能是人工將某個 slave 節點提升為 master)
- **failover-end :** 故障轉移結束,並且所有 slave 已經指向新 master
- **failover-end-for-timeout :** 故障轉移結束超時,部分 slave 未指向新 master,叢集狀態尚需時間完成收斂
如果需要訂閱所有事件,只需要執行命令`PSUBSCRIBE *`即可。
## JedisSentinelPool
為了加深印象,下面通過分析 **jedis-3.3.0** 中 `JedisSentinelPool` 的原始碼來觀察如何使用事件 API。
`JedisSentinelPool`啟動時呼叫初始化函式`initSentinels`獲取 master 資訊:
```java
private HostAndPort initSentinels(Set sentinels, final String masterName) {
HostAndPort master = null;
// 遍歷 sentinel 資訊並建立連線
for (String sentinel : sentinels) {
final HostAndPort hap = HostAndPort.parseString(sentinel);
Jedis jedis = null;
try {
jedis = new Jedis(hap.getHost(), hap.getPort(), sentinelConnectionTimeout, sentinelSoTimeout);
// ...
// 傳送 get-master-addr-by-name 命令獲取 master 節點
List masterAddr = jedis.sentinelGetMasterAddrByName(masterName);
if (masterAddr == null || masterAddr.size() != 2) {
log.warn("Can not get master addr, master name: {}. Sentinel: {}", masterName, hap);
continue;
}
// 獲取到 master 節點資訊後退出
master = toHostAndPort(masterAddr);
break;
} catch (JedisException e) {
log.warn(
"Cannot get master address from sentinel running @ {}. Reason: {}. Trying next one.", hap, e);
} finally {
if (jedis != null) {
jedis.close();
}
}
}
if (master == null) {
// 無法獲取到 master 資訊,此處會丟擲異常
// ...
}
// 啟動監聽執行緒,監聽所有 sentinel,保證及時感知到叢集變化
for (String sentinel : sentinels) {
final HostAndPort hap = HostAndPort.parseString(sentinel);
MasterListener masterListener = new MasterListener(masterName, hap.getHost(), hap.getPort());
masterListener.setDaemon(true);
masterListeners.add(masterListener);
masterListener.start();
}
return master;
}
```
`MasterListener`類通過事件 API 監聽 master 節點變化並在重新初始化連線池:
```java
class MasterListener extends Thread {
protected String masterName;
protected String host;
protected int port;
protected long subscribeRetryWaitTimeMillis = 5000;
protected volatile Jedis j;
protected AtomicBoolean running = new AtomicBoolean(false);
public MasterListener(String masterName, String host, int port) {
super(String.format("MasterListener-%s-[%s:%d]", masterName, host, port));
this.masterName = masterName;
this.host = host;
this.port = port;
}
@Override
public void run() {
running.set(true);
while (running.get()) {
try {
// 與 sentinel 建立連線
j = new Jedis(host, port, sentinelConnectionTimeout, sentinelSoTimeout);
// ...
// 再次獲取 master 資訊
List masterAddr = j.sentinelGetMasterAddrByName(masterName);
if (masterAddr == null || masterAddr.size() != 2) {
log.warn("Can not get master addr, master name: {}. Sentinel: {}:{}.", masterName, host, port);
} else {
// 如果 master 發生變化則重新重新初始化連線池
initPool(toHostAndPort(masterAddr));
}
// 監聽 +switch-master 事件感知 master 節點變化
j.subscribe(new JedisPubSub() {
@Override
public void onMessage(String channel, String message) {
// master 發生了變化
String[] switchMasterMsg = message.split(" ");
if (switchMasterMsg.length > 3) {
// 只處理與當前 master-name 相關的資訊
if (masterName.equals(switchMasterMsg[0])) {
// 如果 master 發生變化則重新重新初始化連線池
initPool(toHostAndPort(Arrays.asList(switchMasterMsg[3], switchMasterMsg[4])));
}
} else {
log.error(
"Invalid message received on Sentinel {}:{} on channel +switch-master: {}", host, port, message);
}
}
}, "+switch-master");
} catch (JedisException e) {
if (running.get()) {
// 連線斷開後,等待 5s 重連
log.error("Lost connection to Sentinel at {}:{}. Sleeping 5000ms and retrying.", host, port, e);
try {
Thread.sleep(subscribeRetryWaitTimeMillis);
} catch (InterruptedException e1) {
log.error("Sleep interrupted: ", e1);
}
} else {
log.debug("Unsubscribing from Sentinel at {}:{}", host, port);
}
} finally {
if (j != null) {
j.close();
}
}
}
}
public void shutdown() {
try {
log.debug("Shutting down listener on {}:{}", host, port);
running.set(false);
// This isn't good, the Jedis object is not thread safe
if (j != null) {
j.disconnect();
}
} catch (Exception e) {
log.error("Caught exception while shutting down: ", e);
}
}
}
```
至此,對 redis 的哨兵機制分析完畢,後續將對 redis 的一些其他細節進行分享,感謝
哨兵叢集以叢集的方式進行部署,這種分散式特性具有以下優點: - 避免系統中存在單點,防止災備機制失效 - 切換 master 必須經過多個 sentinel 節點協商同意,避免出現誤判 為了保證 Redis 服務的高可用,哨兵機制提供了以下功能: - 監控`Monitoring`:實時監控主從節點的健康狀況 - 通知`Notification`:通過事件 API 將服務例項異常情況即時告知監聽者 - 自動災備`Automatic failover`:當 master 節點失效時從 slave 中選舉出新的 master - 服務發現`Configuration provider`:客戶端通過哨兵叢集獲取 master 例項資訊,在發生自動災備時能及時將 master 變化告知客戶端 # 相關配置 建立哨兵叢集的配置相對簡單,只需配置以下選項即可: ### **sentinel monitor <master-name> <ip> <port> <quorum>** 需要監控的 master 節點的資訊(由於 sentinel 會自動發現 slave 節點資訊,因此無需配置) - **master-name** 用於區分不同的 master 節點,會被用於 master 發現 - **quorum** 是啟動故障轉移`failover`時,所需的最小 sentinel 數量 故障轉移前需要選舉出一個 leader 節點執行 master 切換,為了達成共識,該過程必須有半數以上的節點
majority
- 若同時有 n 個節點判斷當前 master 已經下線,則其中的某個 sentinel 會嘗試發起故障轉移
- 實際執行故障轉移需要進行 leader 選舉,因此僅當叢集中至少有 m/2 以上的 sentinel 節點可用時,故障轉移才可能啟動
至此,對 redis 的哨兵機制分析完畢,後續將對 redis 的一些其他細節進行分享,感謝