1. 程式人生 > >使用kafka訊息佇列解決分散式事務(可靠訊息最終一致性方案-本地訊息服務)

使用kafka訊息佇列解決分散式事務(可靠訊息最終一致性方案-本地訊息服務)

微服務框架Spring Cloud介紹 Part1: 使用事件和訊息佇列實現分散式事務

本文轉自:http://skaka.me/blog/2016/04/21/springcloud1/

不同於單一架構應用(Monolith), 分散式環境下, 進行事務操作將變得困難, 因為分散式環境通常會有多個數據源, 只用本地資料庫事務難以保證多個數據源資料的一致性. 這種情況下, 可以使用兩階段或者三階段提交協議來完成分散式事務.但是使用這種方式一般來說效能較差, 因為事務管理器需要在多個數據源之間進行多次等待. 有一種方法同樣可以解決分散式事務問題, 並且效能較好, 這就是我這篇文章要介紹的使用事件,本地事務以及訊息佇列來實現分散式事務.

我們從一個簡單的例項入手. 基本所有網際網路應用都會有使用者註冊的功能. 在這個例子中, 我們對於使用者註冊有兩步操作: 
1. 註冊成功, 儲存使用者資訊.
2. 需要給使用者發放一張代金券, 目的是鼓勵使用者進行消費.
如果是一個單一架構應用, 實現這個功能非常簡單: 在一個本地事務裡, 往使用者表插一條記錄, 並且在代金券表裡插一條記錄, 提交事務就完成了. 但是如果我們的應用是用微服務實現的, 可能使用者和代金券是兩個獨立的服務, 他們有各自的應用和資料庫, 那麼就沒有辦法簡單的使用本地事務來保證操作的原子性了. 現在來看看如何使用事件機制和訊息佇列來實現這個需求.(我在這裡使用的訊息佇列是kafka, 原理同樣適用於ActiveMQ/RabbitMQ等其他佇列)

我們會為使用者註冊這個操作建立一個事件, 該事件就叫做使用者建立事件(USER_CREATED). 使用者服務成功儲存使用者記錄後, 會發送使用者建立事件到訊息佇列, 代金券服務會監聽使用者建立事件, 一旦接收到該事件, 代金券服務就會在自己的資料庫中為該使用者建立一張代金券. 好了, 這些步驟看起來都相當的簡單直觀, 但是怎麼保證事務的原子性呢? 考慮下面這兩個場景:
1. 使用者服務在儲存使用者記錄, 還沒來得及向訊息佇列傳送訊息之前就宕機了. 怎麼保證使用者建立事件一定傳送到訊息隊列了?
2. 代金券服務接收到使用者建立事件, 還沒來得及處理事件就宕機了. 重新啟動之後如何消費之前的使用者建立事件?
這兩個問題的本質是: 如何讓操作資料庫和操作訊息佇列這兩個操作成為一個原子操作. 不考慮2PC, 這裡我們可以通過事件表來解決這個問題. 下面是類圖. 

EventPublish是記錄待發布事件的表. 其中:
id: 每個事件在建立的時候都會生成一個全域性唯一ID, 例如UUID.
status: 事件狀態, 列舉型別. 現在只有兩個狀態: 待發布(NEW), 已釋出(PUBLISHED).
payload: 事件內容. 這裡我們會將事件內容轉成json存到這個欄位裡.
eventType: 事件型別, 列舉型別. 每個事件都會有一個型別, 比如我們之前提到的建立使用者USER_CREATED就是一個事件型別.
EventProcess是用來記錄待處理的事件. 欄位與EventPublish基本相同.

我們首先看看事件的釋出過程. 下面是使用者服務釋出使用者建立事件的順序圖. 
1. 使用者服務在接收到使用者請求後開啟事務, 在使用者表建立一條使用者記錄, 並且在EventPublish表建立一條status為NEW的記錄, payload記錄的是事件內容, 提交事務.
2. 使用者服務中的定時器首先開啟事務, 然後查詢EventPublish是否有status為NEW的記錄, 查詢到記錄之後, 拿到payload資訊, 將訊息釋出到kafka中對應的topic.
傳送成功之後, 修改資料庫中EventPublish的status為PUBLISHED, 提交事務.

下面是代金券服務處理使用者建立事件的順序圖. 
1. 代金券服務接收到kafka傳來的使用者建立事件(實際上是代金券服務主動拉取的訊息, 先忽略訊息佇列的實現), 在EventProcess表建立一條status為NEW的記錄, payload記錄的是事件內容, 如果儲存成功, 向kafka返回接收成功的訊息.
2. 代金券服務中的定時器首先開啟事務, 然後查詢EventProcess是否有status為NEW的記錄, 查詢到記錄之後, 拿到payload資訊, 交給事件回撥處理器處理, 這裡是直接建立代金券記錄. 處理成功之後修改資料庫中EventProcess的status為PROCESSED, 最後提交事務.

回過頭來看我們之前提出的兩個問題:
1. 使用者服務在儲存使用者記錄, 還沒來得及向訊息佇列傳送訊息之前就宕機了. 怎麼保證使用者建立事件一定傳送到訊息隊列了?
根據事件釋出的順序圖, 我們把建立事件和釋出事件分成了兩步操作. 如果事件建立成功, 但是在釋出的時候宕機了. 啟動之後定時器會重新對之前沒有釋出成功的事件進行釋出. 如果事件在建立的時候就宕機了, 因為事件建立和業務操作在一個數據庫事務裡, 所以對應的業務操作也失敗了, 資料庫狀態的一致性得到了保證.
2. 代金券服務接收到使用者建立事件, 還沒來得及處理事件就宕機了. 重新啟動之後如何消費之前的使用者建立事件?
根據事件處理的順序圖, 我們把接收事件和處理事件分成了兩步操作. 如果事件接收成功, 但是在處理的時候宕機了. 啟動之後定時器會重新對之前沒有處理成功的事件進行處理. 如果事件在接收的時候就宕機了, kafka會重新將事件傳送給對應服務.

通過這種方式, 我們不用2PC, 也保證了多個數據源之間狀態的最終一致性.
和2PC/3PC這種同步事務處理的方式相比, 這種非同步事務處理方式具有非同步系統通常都有的優點:
1. 事務吞吐量大. 因為不需要等待其他資料來源響應.
2. 容錯性好. A服務在釋出事件的時候, B服務甚至可以不線上.
缺點:
1. 程式設計與除錯較複雜.
2. 容易出現較多的中間狀態. 比如上面的例子, 在使用者服務已經儲存了使用者併發布了事件, 但是代金券服務還沒來得及處理之前, 使用者如果登入系統, 會發現自己是沒有代金券的. 這種情況可能在有些業務中是能夠容忍的, 但是有些業務卻不行. 所以開發之前要考慮好.

3、與具體業務場景繫結,偶爾性強,不可以共用

4、訊息資料和業務資料同一個庫,佔用業務資料庫資源

另外, 上面的流程在實現的過程中還有一些可以改進的地方:
1. 定時器在更新EventPublish狀態為PUBLISHED的時候, 可以一次批量更新多個EventProcess的狀態.
2. 定時器查詢EventProcess並交給事件回撥處理器處理的時候, 可以使用執行緒池非同步處理, 加快EventProcess處理週期.
3. 在儲存EventPublish和EventProcess的時候同時儲存到Redis, 之後的操作可以對Redis中的資料進行, 但是要小心處理快取和資料庫可能狀態不一致問題.
4. 針對Kafka, 因為Kafka的特點是可能重發訊息, 所以在接收事件並且儲存到EventProcess的時候可能報主鍵衝突的錯誤(因為重複訊息id是相同的), 這個時候可以直接丟棄該訊息.

針對於本篇文章,其中有些小問題理解的還是有欠缺的  !但是大部分的還是可以的!歡迎提供交流建議!