場景一

有這樣一個場景:系統中有大約100w的使用者,每個使用者平 均有3個郵箱賬號,每隔5分鐘,每個郵箱賬需要收取100封郵件,最多3億份郵件需要下載到伺服器中(不含附件和正文)。用20臺機器劃分計算的壓力,從 多個不同的網路出口進行訪問外網,計算的壓力得到緩解,那麼每臺機器的計算壓力也不會很大了。

        通過我們的討論和以往的經驗判斷在這場景中可以實現平行計算,但我們還期望能對平行計算的節點進行動態的新增/刪除,做到線上更新平行計算的數目並且不會影響計算單元中的其他計算節點,但是有4個問題需要解決,否則會出現一些嚴重的問題:

  1. 20臺機器同時工作時,有一臺機器down掉了,其他機器怎麼進行接管計算任務,否則有些使用者的業務不會被處理,造成使用者服務終斷。
  2. 隨著使用者數量增加,新增機器是可以解決計算的瓶頸,但需要重啟所有計算節點,如果需要,那麼將會造成整個系統的不可用。
  3. 使用者數量增加或者減少,計算節點中的機器會出現有的機器資源使用率繁忙,有的卻空閒,因為計算節點不知道彼此的執行負載狀態。
  4. 怎麼去通知每個節點彼此的負載狀態,怎麼保證通知每個計算節點方式的可靠性和實時性。

        先不說那麼多專業名詞,白話來說我們需要的是:1記錄狀態,2事件通知 ,3可靠穩定的中央排程器,4易上手、管理簡單。
        採用Zookeeper完全可以解決我們的問題,分散式計算中的協調員,觀察者,分散式鎖  都可以作為zookeeper的關鍵詞,在系統中利用Zookeeper來處理事件通知,佇列,優先佇列,鎖,共享鎖等功能,利用這些特色在分散式計算中發揮重要的作用。

場景二 

        假設我們我們有個20個搜尋引擎的伺服器(每個負責總索引中的一部分的搜尋任務)和一個總伺服器(負責向這20個搜尋引擎的伺服器發出搜尋請求併合並 結果集),一個備用的總伺服器(負責當總伺服器宕機時替換總伺服器),一個web的 cgi(向總伺服器發出搜尋請求).搜尋引擎的伺服器中的15個伺服器現在提供搜尋服務,5個伺服器正在生成索引.這20個搜尋引擎的伺服器經常要讓正在 提供搜尋服務的伺服器停止提供服務開始生成索引,或生成索引的伺服器已經把索引生成完成可以搜尋提供服務了.使用Zookeeper可以保證總伺服器自動 感知有多少提供搜尋引擎的伺服器並向這些伺服器發出搜尋請求,備用的總伺服器宕機時自動啟用備用的總伺服器,web的cgi能夠自動地獲知總伺服器的網路 地址變化.這些又如何做到呢?

1. 提供搜尋引擎的伺服器都在Zookeeper中建立znode,zk.create("/search/nodes/node1",

"hostname".getBytes(), Ids.OPEN_ACL_UNSAFE, CreateFlags.EPHEMERAL);

2.總伺服器可以從Zookeeper中獲取一個znode的子節點的列表,zk.getChildren("/search/nodes", true);

3.總伺服器遍歷這些子節點,並獲取子節點的資料生成提供搜尋引擎的伺服器列表.

4.當總伺服器接收到子節點改變的事件資訊,重新返回第二步.

5.總伺服器在Zookeeper中建立節點,zk.create("/search/master", "hostname".getBytes(), Ids.OPEN_ACL_UNSAFE, CreateFlags.EPHEMERAL);

6.備用的總伺服器監控Zookeeper中的"/search/master"節點.當這個znode的節點資料改變時,把自己啟動變成總伺服器,並把自己的網路地址資料放進這個節點.

7.web的cgi從Zookeeper中"/search/master"節點獲取總伺服器的網路地址資料並向其傳送搜尋請求.

8.web的cgi監控Zookeeper中的"/search/master"節點,當這個znode的節點資料改變時,從這個節點獲取總伺服器的網路地址資料,並改變當前的總伺服器的網路地址.

        在我的測試中:一個Zookeeper的叢集中,3個Zookeeper節點.一個leader,兩個follower的情況下,停掉leader,然後兩個follower選舉出一個leader.獲取的資料不變.我想Zookeeper能夠幫助Hadoop做到:

        Hadoop,使用Zookeeper的事件處理確保整個叢集只有一個NameNode,儲存配置資訊等.

        HBase,使用Zookeeper的事件處理確保整個叢集只有一個HMaster,察覺HRegionServer聯機和宕機,儲存訪問控制列表等.

 zookeeper是什麼

        官方說辭:Zookeeper 分散式服務框架是Apache Hadoop 的一個子專案,它主要是用來解決分散式應用中經常遇到的一些資料管理問題,如:統一命名服務、狀態同步服務、叢集管理、分散式應用配置項的管理等。

好抽象,我們改變一下方式,先看看它都提供了哪些功能,然後再看看使用它的這些功能能做點什麼。

 zookeeper提供了什麼

簡單的說,zookeeper=檔案系統+通知機制。

1、 檔案系統

Zookeeper維護一個類似檔案系統的資料結構:

                                                          zookeeper簡介

        每個子目錄項如 NameService 都被稱作為 znode,和檔案系統一樣,我們能夠自由的增加、刪除znode,在一個znode下增加、刪除子znode,唯一的不同在於znode是可以儲存資料的。

有四種類型的znode:

1、PERSISTENT-持久化目錄節點

客戶端與zookeeper斷開連線後,該節點依舊存在

2、 PERSISTENT_SEQUENTIAL-持久化順序編號目錄節點

客戶端與zookeeper斷開連線後,該節點依舊存在,只是Zookeeper給該節點名稱進行順序編號

3、EPHEMERAL-臨時目錄節點

客戶端與zookeeper斷開連線後,該節點被刪除

4、EPHEMERAL_SEQUENTIAL-臨時順序編號目錄節點

客戶端與zookeeper斷開連線後,該節點被刪除,只是Zookeeper給該節點名稱進行順序編號

2、 通知機制

        客戶端註冊監聽它關心的目錄節點,當目錄節點發生變化(資料改變、被刪除、子目錄節點增加刪除)時,zookeeper會通知客戶端。 

就這麼簡單,下面我們看看能做點什麼呢?

我們能用zookeeper做什麼

1、 命名服務

        這個似乎最簡單,在zookeeper的檔案系統裡建立一個目錄,即有唯一的path。在我們使用tborg無法確定上游程式的部署機器時即可與下游程式約定好path,通過path即能互相探索發現,不見不散了。

2、 配置管理

        程式總是需要配置的,如果程式分散部署在多臺機器上,要逐個改變配置就變得困難。好吧,現在把這些配置全部放到zookeeper上去,儲存在 Zookeeper 的某個目錄節點中,然後所有相關應用程式對這個目錄節點進行監聽,一旦配置資訊發生變化,每個應用程式就會收到 Zookeeper 的通知,然後從 Zookeeper 獲取新的配置資訊應用到系統中就好。

                                         zookeeper簡介

3、 叢集管理

所謂叢集管理無在乎兩點:是否有機器退出和加入、選舉master。

        對於第一點,所有機器約定在父目錄GroupMembers下建立臨時目錄節點,然後監聽父目錄節點的子節點變化訊息。一旦有機器掛掉,該機器與 zookeeper的連線斷開,其所建立的臨時目錄節點被刪除,所有其他機器都收到通知:某個兄弟目錄被刪除,於是,所有人都知道:它上船了。新機器加入 也是類似,所有機器收到通知:新兄弟目錄加入,highcount又有了。

        對於第二點,我們稍微改變一下,所有機器建立臨時順序編號目錄節點,每次選取編號最小的機器作為master就好。

                                 zookeeper簡介

4、  分散式鎖

        有了zookeeper的一致性檔案系統,鎖的問題變得容易。鎖服務可以分為兩類,一個是保持獨佔,另一個是控制時序。

        對於第一類,我們將zookeeper上的一個znode看作是一把鎖,通過createznode的方式來實現。所有客戶端都去建立 /distribute_lock 節點,最終成功建立的那個客戶端也即擁有了這把鎖。廁所有言:來也沖沖,去也沖沖,用完刪除掉自己建立的distribute_lock 節點就釋放出鎖。

        對於第二類, /distribute_lock 已經預先存在,所有客戶端在它下面建立臨時順序編號目錄節點,和選master一樣,編號最小的獲得鎖,用完刪除,依次方便。

                                         zookeeper簡介

5、佇列管理

兩種型別的佇列:

1、 同步佇列,當一個佇列的成員都聚齊時,這個佇列才可用,否則一直等待所有成員到達。

2、佇列按照 FIFO 方式進行入隊和出隊操作。

第一類,在約定目錄下建立臨時目錄節點,監聽節點數目是否是我們要求的數目。

第二類,和分散式鎖服務中的控制時序場景基本原理一致,入列有編號,出列按編號。                 

         終於瞭解完我們能用zookeeper做什麼了,可是作為一個程式設計師,我們總是想狂熱瞭解zookeeper是如何做到這一點的,單點維護一個檔案系統沒有什麼難度,可是如果是一個叢集維護一個檔案系統保持資料的一致性就非常困難了。

分散式與資料複製

Zookeeper作為一個叢集提供一致的資料服務,自然,它要在所有機器間做資料複製。資料複製的好處:

1、 容錯
一個節點出錯,不致於讓整個系統停止工作,別的節點可以接管它的工作;

2、提高系統的擴充套件能力
把負載分佈到多個節點上,或者增加節點來提高系統的負載能力;

3、提高效能
讓客戶端本地訪問就近的節點,提高使用者訪問速度。

從客戶端讀寫訪問的透明度來看,資料複製集群系統分下面兩種:

1、寫主(WriteMaster)
對資料的修改提交給指定的節點。讀無此限制,可以讀取任何一個節點。這種情況下客戶端需要對讀與寫進行區別,俗稱讀寫分離;

2、寫任意(Write Any)
對資料的修改可提交給任意的節點,跟讀一樣。這種情況下,客戶端對叢集節點的角色與變化透明。

        對zookeeper來說,它採用的方式是寫任意。通過增加機器,它的讀吞吐能力和響應能力擴充套件性非常好,而寫,隨著機器的增多吞吐能力肯定下降(這 也是它建立observer的原因),而響應能力則取決於具體實現方式,是延遲複製保持最終一致性,還是立即複製快速響應。

我們關注的重點還是在如何保證資料在叢集所有機器的一致性,這就涉及到paxos演算法。

資料一致性與paxos演算法

        據說Paxos演算法的難理解與演算法的知名度一樣令人敬仰,所以我們先看如何保持資料的一致性,這裡有個原則就是:

在一個分散式資料庫系統中,如果各節點的初始狀態一致,每個節點都執行相同的操作序列,那麼他們最後能得到一個一致的狀態。

        Paxos演算法解決的什麼問題呢,解決的就是保證每個節點執行相同的操作序列。好吧,這還不簡單,master維護一個全域性寫佇列,所有寫操作都必須 放入這個佇列編號,那麼無論我們寫多少個節點,只要寫操作是按編號來的,就能保證一致性。沒錯,就是這樣,可是如果master掛了呢。

        Paxos演算法通過投票來對寫操作進行全域性編號,同一時刻,只有一個寫操作被批准,同時併發的寫操作要去爭取選票,只有獲得過半數選票的寫操作才會被 批准(所以永遠只會有一個寫操作得到批准),其他的寫操作競爭失敗只好再發起一輪投票,就這樣,在日復一日年復一年的投票中,所有寫操作都被嚴格編號排 序。編號嚴格遞增,當一個節點接受了一個編號為100的寫操作,之後又接受到編號為99的寫操作(因為網路延遲等很多不可預見原因),它馬上能意識到自己 資料不一致了,自動停止對外服務並重啟同步過程。任何一個節點掛掉都不會影響整個叢集的資料一致性(總2n+1臺,除非掛掉大於n臺)。

總結

        Zookeeper 作為 Hadoop 專案中的一個子專案,是 Hadoop 叢集管理的一個必不可少的模組,它主要用來控制叢集中的資料,如它管理 Hadoop 叢集中的 NameNode,還有 Hbase 中 Master Election、Server 之間狀態同步等。

        ZooKeeper是一個分散式的,開放原始碼的分散式應用程式協調服務,它包含一個簡單的原語集,分散式應用程式可以基於它實現同步服務,配置維護和 命名服務等。Zookeeper是hadoop的一個子專案,其發展歷程無需贅述。在分散式應用中,由於工程師不能很好地使用鎖機制,以及基於訊息的協調 機制不適合在某些應用中使用,因此需要有一種可靠的、可擴充套件的、分散式的、可配置的協調機制來統一系統的狀態。Zookeeper的目的就在於此。本文簡 單分析zookeeper的工作原理,對於如何使用zookeeper不是本文討論的重點。

Zookeeper的基本概念

1.1 角色

Zookeeper中的角色主要有以下三類,如下表所示:

                         zookeeper簡介

系統模型如圖所示:

                         zookeeper簡介        

1.2 設計目的

1.最終一致性:client不論連線到哪個Server,展示給它都是同一個檢視,這是zookeeper最重要的效能。

2 .可靠性:具有簡單、健壯、良好的效能,如果訊息m被到一臺伺服器接受,那麼它將被所有的伺服器接受。

3 .實時性:Zookeeper保證客戶端將在一個時間間隔範圍內獲得伺服器的更新資訊,或者伺服器失效的資訊。但由於網路延時等原因,Zookeeper不能保證兩個客戶端能同時得到剛更新的資料,如果需要最新資料,應該在讀資料之前呼叫sync()介面。

4 .等待無關(wait-free):慢的或者失效的client不得干預快速的client的請求,使得每個client都能有效的等待。

5.原子性:更新只能成功或者失敗,沒有中間狀態。

6 .順序性:包括全域性有序和偏序兩種:全域性有序是指如果在一臺伺服器上訊息a在訊息b前釋出,則在所有Server上訊息a都將在訊息b前被髮布;偏序是指如果一個訊息b在訊息a後被同一個傳送者釋出,a必將排在b前面。

 ZooKeeper的工作原理

        Zookeeper的核心是原子廣播,這個機制保證了各個Server之間的同步。實現這個機制的協議叫做Zab協議。Zab協議有兩種模式,它們分 別是恢復模式(選主)和廣播模式(同步)。當服務啟動或者在領導者崩潰後,Zab就進入了恢復模式,當領導者被選舉出來,且大多數Server完成了和 leader的狀態同步以後,恢復模式就結束了。狀態同步保證了leader和Server具有相同的系統狀態。

        為了保證事務的順序一致性,zookeeper採用了遞增的事務id號(zxid)來標識事務。所有的提議(proposal)都在被提出的時候加上 了zxid。實現中zxid是一個64位的數字,它高32位是epoch用來標識leader關係是否改變,每次一個leader被選出來,它都會有一個 新的epoch,標識當前屬於那個leader的統治時期。低32位用於遞增計數。

每個Server在工作過程中有三種狀態:

  • LOOKING:當前Server不知道leader是誰,正在搜尋
  • LEADING:當前Server即為選舉出來的leader
  • FOLLOWING:leader已經選舉出來,當前Server與之同步

2.1 選主流程

      當leader崩潰或者leader失去大多數的follower,這時候zk進入恢復模式,恢復模式需要重新選舉出一個新的leader,讓所有的 Server都恢復到一個正確的狀態。Zk的選舉演算法有兩種:一種是基於basic paxos實現的,另外一種是基於fast paxos演算法實現的。系統預設的選舉演算法為fast paxos。先介紹basic paxos流程:

        1 .選舉執行緒由當前Server發起選舉的執行緒擔任,其主要功能是對投票結果進行統計,並選出推薦的Server;

        2 .選舉執行緒首先向所有Server發起一次詢問(包括自己);

        3 .選舉執行緒收到回覆後,驗證是否是自己發起的詢問(驗證zxid是否一致),然後獲取對方的id(myid),並存儲到當前詢問物件列表中,最後獲取對方提議的leader相關資訊(        id,zxid),並將這些資訊儲存到當次選舉的投票記錄表中;

        4.  收到所有Server回覆以後,就計算出zxid最大的那個Server,並將這個Server相關資訊設定成下一次要投票的Server;

        5.  執行緒將當前zxid最大的Server設定為當前Server要推薦的Leader,如果此時獲勝的Server獲得n/2 + 1的Server票數, 設定當前推薦的leader為獲勝的Server,將根據獲勝的Server相關資訊設定自己的狀態,否則,繼續這個過程,直到leader被選舉出來。

    通過流程分析我們可以得出:要使Leader獲得多數Server的支援,則Server總數必須是奇數2n+1,且存活的Server的數目不得少於n+1.

    每個Server啟動後都會重複以上流程。在恢復模式下,如果是剛從崩潰狀態恢復的或者剛啟動的server還會從磁碟快照中恢復資料和會話資訊,zk會記錄事務日誌並定期進行快照,方便在恢復時進行狀態恢復。選主的具體流程圖如下所示:

                                         zookeeper簡介

      fast paxos流程是在選舉過程中,某Server首先向所有Server提議自己要成為leader,當其它Server收到提議以後,解決epoch和 zxid的衝突,並接受對方的提議,然後向對方傳送接受提議完成的訊息,重複這個流程,最後一定能選舉出Leader。其流程圖如下所示:

                         zookeeper簡介

2.2 同步流程

選完leader以後,zk就進入狀態同步過程。

        1. leader等待server連線;

        2 .Follower連線leader,將最大的zxid傳送給leader;

        3 .Leader根據follower的zxid確定同步點;

        4 .完成同步後通知follower 已經成為uptodate狀態;

        5 .Follower收到uptodate訊息後,又可以重新接受client的請求進行服務了。

流程圖如下所示:

                                 zookeeper簡介

2.3 工作流程

2.3.1 Leader工作流程

Leader主要有三個功能:

        1 .恢復資料;

        2 .維持與Learner的心跳,接收Learner請求並判斷Learner的請求訊息型別;

        3 .Learner的訊息型別主要有PING訊息、REQUEST訊息、ACK訊息、REVALIDATE訊息,根據不同的訊息型別,進行不同的處理。

        PING訊息是指Learner的心跳資訊;REQUEST訊息是Follower傳送的提議資訊,包括寫請求及同步請求;ACK訊息是 Follower的對提議的回覆,超過半數的Follower通過,則commit該提議;REVALIDATE訊息是用來延長SESSION有效時間。
Leader的工作流程簡圖如下所示,在實際實現中,流程要比下圖複雜得多,啟動了三個執行緒來實現功能。

                                 zookeeper簡介

2.3.2 Follower工作流程

Follower主要有四個功能:

        1. 向Leader傳送請求(PING訊息、REQUEST訊息、ACK訊息、REVALIDATE訊息);

        2 .接收Leader訊息並進行處理;

        3 .接收Client的請求,如果為寫請求,傳送給Leader進行投票;

        4 .返回Client結果。

Follower的訊息迴圈處理如下幾種來自Leader的訊息:

        1 .PING訊息: 心跳訊息;

        2 .PROPOSAL訊息:Leader發起的提案,要求Follower投票;

        3 .COMMIT訊息:伺服器端最新一次提案的資訊;

        4 .UPTODATE訊息:表明同步完成;

        5 .REVALIDATE訊息:根據Leader的REVALIDATE結果,關閉待revalidate的session還是允許其接受訊息;

        6 .SYNC訊息:返回SYNC結果到客戶端,這個訊息最初由客戶端發起,用來強制得到最新的更新。

Follower的工作流程簡圖如下所示,在實際實現中,Follower是通過5個執行緒來實現功能的。

                         zookeeper簡介

對於observer的流程不再敘述,observer流程和Follower的唯一不同的地方就是observer不會參加leader發起的投票。

附錄:

        ZooKeeper是一個高可用的分散式資料管理與系統協調框架。基於對Paxos演算法的實現,使該框架保證了分散式環境中資料的強一致性,也正是基 於這樣的特性,使得zookeeper能夠應用於很多場景。網上對zk的使用場景也有不少介紹,本文將結合作者身邊的專案例子,系統的對zk的使用場景進 行歸類介紹。 值得注意的是,zk並不是生來就為這些場景設計,都是後來眾多開發者根據框架的特性,摸索出來的典型使用方法。因此,也非常歡迎你分享你在ZK使用上的奇 技淫巧。

場景類別

典型場景描述(ZK特性,使用方法)

應用中的具體使用

資料釋出與訂閱

釋出與訂閱即所謂的配置管理,顧名思義就是將資料釋出到zk節點上,供訂閱者動態獲取資料,實現配置資訊的集中式管理和動態更新。例如全域性的配置資訊,地址列表等就非常適合使用。

1. 索引資訊和叢集中機器節點狀態存放在zk的一些指定節點,供各個客戶端訂閱使用。2. 系統日誌(經過處理後的)儲存,這些日誌通常2-3天后被清除。

3. 應用中用到的一些配置資訊集中管理,在應用啟動的時候主動來獲取一次,並且在節點上註冊一個Watcher,以後每次配置有更新,實時通知到應用,獲取最新配置資訊。

4. 業務邏輯中需要用到的一些全域性變數,比如一些訊息中介軟體的訊息佇列通常有個offset,這個offset存放在zk上,這樣叢集中每個傳送者都能知道當前的傳送進度。

5. 系統中有些資訊需要動態獲取,並且還會存在人工手動去修改這個資訊。以前通常是暴露出介面,例如JMX介面,有了zk後,只要將這些資訊存放到zk節點上即可。

Name Service

這個主要是作為分散式命名服務,通過呼叫zk的create node api,能夠很容易建立一個全域性唯一的path,這個path就可以作為一個名稱。

分佈通知/協調

ZooKeeper 中特有watcher註冊與非同步通知機制,能夠很好的實現分散式環境下不同系統之間的通知與協調,實現對資料變更的實時處理。使用方法通常是不同系統都對 ZK上同一個znode進行註冊,監聽znode的變化(包括znode本身內容及子節點的),其中一個系統update了znode,那麼另一個系統能 夠收到通知,並作出相應處理。

1. 另一種心跳檢測機制:檢測系統和被檢測系統之間並不直接關聯起來,而是通過zk上某個節點關聯,大大減少系統耦合。2. 另一種系統排程模式:某系統有控制檯和推送系統兩部分組成,控制檯的職責是控制推送系統進行相應的推送工作。管理人員在控制檯作的一些操作,實際上是修改 了ZK上某些節點的狀態,而zk就把這些變化通知給他們註冊Watcher的客戶端,即推送系統,於是,作出相應的推送任務。

3. 另一種工作彙報模式:一些類似於任務分發系統,子任務啟動後,到zk來註冊一個臨時節點,並且定時將自己的進度進行彙報(將進度寫回這個臨時節點),這樣任務管理者就能夠實時知道任務進度。

總之,使用zookeeper來進行分散式通知和協調能夠大大降低系統之間的耦合。

分散式鎖

分散式鎖,這個主要得益於ZooKeeper為我們保證了資料的強一致性,即使用者只要完全相信每時每刻,zk叢集中任意節點(一個zk server)上的相同znode的資料是一定是相同的。鎖服務可以分為兩類,一個是保持獨佔,另一個是控制時序。

所 謂保持獨佔,就是所有試圖來獲取這個鎖的客戶端,最終只有一個可以成功獲得這把鎖。通常的做法是把zk上的一個znode看作是一把鎖,通過create znode的方式來實現。所有客戶端都去建立 /distribute_lock 節點,最終成功建立的那個客戶端也即擁有了這把鎖。

控 制時序,就是所有檢視來獲取這個鎖的客戶端,最終都是會被安排執行,只是有個全域性時序了。做法和上面基本類似,只是這裡 /distribute_lock 已經預先存在,客戶端在它下面建立臨時有序節點(這個可以通過節點的屬性控制:CreateMode.EPHEMERAL_SEQUENTIAL來指 定)。Zk的父節點(/distribute_lock)維持一份sequence,保證子節點建立的時序性,從而也形成了每個客戶端的全域性時序。

叢集管理

1. 叢集機器監 控:這通常用於那種對叢集中機器狀態,機器線上率有較高要求的場景,能夠快速對叢集中機器變化作出響應。這樣的場景中,往往有一個監控系統,實時檢測叢集 機器是否存活。過去的做法通常是:監控系統通過某種手段(比如ping)定時檢測每個機器,或者每個機器自己定時向監控系統彙報“我還活著”。 這種做法可行,但是存在兩個比較明顯的問題:1. 叢集中機器有變動的時候,牽連修改的東西比較多。2. 有一定的延時。

利 用ZooKeeper有兩個特性,就可以實時另一種叢集機器存活性監控系統:a. 客戶端在節點 x 上註冊一個Watcher,那麼如果 x 的子節點變化了,會通知該客戶端。b. 建立EPHEMERAL型別的節點,一旦客戶端和伺服器的會話結束或過期,那麼該節點就會消失。

例 如,監控系統在 /clusterServers 節點上註冊一個Watcher,以後每動態加機器,那麼就往 /clusterServers 下建立一個 EPHEMERAL型別的節點:/clusterServers/{hostname}. 這樣,監控系統就能夠實時知道機器的增減情況,至於後續處理就是監控系統的業務了。
2. Master選舉則是zookeeper中最為經典的使用場景了。

在 分散式環境中,相同的業務應用分佈在不同的機器上,有些業務邏輯(例如一些耗時的計算,網路I/O處理),往往只需要讓整個叢集中的某一臺機器進行執行, 其餘機器可以共享這個結果,這樣可以大大減少重複勞動,提高效能,於是這個master選舉便是這種場景下的碰到的主要問題。

利用ZooKeeper的強一致性,能夠保證在分散式高併發情況下節點建立的全域性唯一性,即:同時有多個客戶端請求建立 /currentMaster 節點,最終一定只有一個客戶端請求能夠建立成功。

利用這個特性,就能很輕易的在分散式環境中進行叢集選取了。

另外,這種場景演化一下,就是動態Master選舉。這就要用到 EPHEMERAL_SEQUENTIAL型別節點的特性了。

上 文中提到,所有客戶端建立請求,最終只有一個能夠建立成功。在這裡稍微變化下,就是允許所有請求都能夠建立成功,但是得有個建立順序,於是所有的請求最終 在ZK上建立結果的一種可能情況是這樣: /currentMaster/{sessionId}-1 , /currentMaster/{sessionId}-2 , /currentMaster/{sessionId}-3 ….. 每次選取序列號最小的那個機器作為Master,如果這個機器掛了,由於他建立的節點會馬上小時,那麼之後最小的那個機器就是Master了。

1. 在搜尋系統中,如果叢集中每個機器都生成一份全量索引,不僅耗時,而且不能保證彼此之間索引資料一致。因此讓叢集中的Master來進行全量索引的生成, 然後同步到叢集中其它機器。2. 另外,Master選舉的容災措施是,可以隨時進行手動指定master,就是說應用在zk在無法獲取master資訊時,可以通過比如http方式,向 一個地方獲取master。

分散式佇列

佇列方面,我目前感覺有兩種,一種是常規的先進先出佇列,另一種是要等到佇列成員聚齊之後的才統一按序執行。對於第二種先進先出佇列,和分散式鎖服務中的控制時序場景基本原理一致,這裡不再贅述。

第 二種佇列其實是在FIFO佇列的基礎上作了一個增強。通常可以在 /queue 這個znode下預先建立一個/queue/num 節點,並且賦值為n(或者直接給/queue賦值n),表示佇列大小,之後每次有佇列成員加入後,就判斷下是否已經到達佇列大小,決定是否可以開始執行 了。這種用法的典型場景是,分散式環境中,一個大任務Task A,需要在很多子任務完成(或條件就緒)情況下才能進行。這個時候,凡是其中一個子任務完成(就緒),那麼就去 /taskList 下建立自己的臨時時序節點(CreateMode.EPHEMERAL_SEQUENTIAL),當 /taskList 發現自己下面的子節點滿足指定個數,就可以進行下一步按序進行處理了。

參考: