1. 程式人生 > >SQLServer AlwaysOn在阿里雲的前世今生

SQLServer AlwaysOn在阿里雲的前世今生

緣起

早在2015年的時候,隨著阿里雲業務突飛猛進的發展,SQLServer業務也積累了大批忠實客戶,其中一些體量較大的客戶在類似大促的業務高峰時RDS的單機規格(規格是按照 記憶體CPUIOPS 一定比例分配,根據底層資源不同都會有各自上限)已經不能滿足使用者的業務需求,在我們看來也需要做Scale Out了,但SQLServer並沒有完備的中介軟體產品,所以無論是邏輯Sharding還是隻讀分離,都需要使用者配合做應用改造,而從使用者角度看Sharding改動量很大不是一時間能完成的,那麼更多寄希望我們提供讀寫分離的方案來滿足業務需求。

那麼讀寫分離我們第一個想到的即是AlwaysOn技術,但由於當時AlwaysOn對域控和Windows群集都是強依賴,而這兩者又對我們所依賴的基礎設施有很大挑戰,需要做很多的突破產品限制的非標準化操作才有可能實現並且還有安全風險,所以最後我們只能放棄AlwaysOn技術方案,重新設計方案幫助使用者度過難關。

最後,面對這類客戶需求我們的方案如何產品化是值得我們思考的。

產品快速發展

除了讀寫分離,產品上還有很多更重要的問題急需我們去解決,所以從2015年到2017年我們經歷了一個飛速發展階段,圍繞產品穩定性、多樣性以及使用者體驗做了非常多的事情,舉幾個點:

在這當中依舊不斷有讀寫分離的使用者需求,每次遇到我們都先引導到了IaaS層用ECS自建實現,因為PaaS化的時機並不成熟,具體原因跟SQLServer當前的技術棧和雲產品的結合有著密切的關係,這裡也可以把我們背後的一些思考分享出來。

讀寫分離

首先明確我們討論的讀寫分離是什麼,MySQL的讀寫分離大部分是利用中間層做路由解析,基本上可以實現對應用端透明只有少部分場景需要使用者做適配。

SQLServer並沒有成熟的中介軟體產品,本質上講是TDS(Tabular Data Stream)不完全開放的原因,如果要做也是有辦法的,只是投入的成本遠大於收益;基於此,SQLServer無論利用當前何種技術實現讀寫分離,對應用來講都需要做一些適配,即使是使用AlwaysOn技術在連結驅動的引數配置上也會不同,所以我們後面討論的讀寫分離都是基於這個前提。

技術選型

我們對比了SQLServer所有相關的技術棧

其中資料安全、HA(High Availability 高可用)、DR(Disaster Recovery 災難恢復)以及備庫是否可讀是我們最關注的;這裡的HA是指原生技術本身是否支援自動HA,當結合了部分雲產品後我們也有能力把不支援變為支援,資料安全和災難恢復的時間基本是原生技術決定的,備庫是否可讀是對單一技術的說明但做一些技術組合是可以把不可讀變為可讀的(比如Database Mirroring+Database Snapshots),最終綜合來看Transactional Replication和AlwaysOn是我們覺得有機會做讀寫分離產品化的技術。

接著我們單獨來看這兩種技術對比

原理上講Replication是邏輯複製,對比AlwaysOn的物理複製在效能、延遲、可靠性上都會有一定的差距;並且在產品複雜度讀、可控性上和易用性上,由於Replication過於靈活細到表、列級別很難控制,無論使用者使用還是我們做產品化整個複雜度非常高;所以最終我們選用AlwaysOn。

AlwaysOn技術

AlwaysOn是原生支援High Availability和Disaster Recovery的技術,本身又分為Failover Cluster Instances(後續簡稱FCI)和Availability Groups(後續簡稱AG),下面的圖是FCI和AG的基礎架構

其中FCI和常規版本的AG都依賴Windows Server Failover Clustering(後續簡稱WSFC),不同點是FCI是Share Storage而AG是Share Nothing,FCI是例項級別同步而AG是DB級別,那麼很容易想到Share Nothing會有同步和非同步的區別(和映象技術類似),其中兩者的區別點需要我們知道AlwaysOn的基本同步過程

首先在Primary節點的日誌(Commit/Log Block Write)會從Log Cache刷到磁碟,同時Primary節點的Log Capture也會把日誌傳送到其它所有Replica節點,對應節點的Log Receive執行緒把收到的日誌同樣從Log Cache刷到磁碟,最後會由Redo Thread應用這些日誌刷到資料檔案裡。

這其中還有一步,就是在Secondary端刷日誌的時候,如果Primary節點等待這次返回的Acknowlege Commit,那麼就是同步模式,反之如果Primary端不等Secondary的返回那麼就是非同步模式,兩者的區別由此展開。

這是基本的同步過程,但無論是AlwaysOn還是Database Mirroring都存在一種情況,即同步模式下如果Secondary端異常,Primary端沒有收到他的心跳也沒有收到這次的Acknowlege Commit,那麼也並不會算作寫入失敗,因為它一旦認定Secondary異常就不會等這次ACK,而是退化為類似非同步的模式,但會把Secondary端的異常狀態記錄在基表裡,通過相關檢視(sys.dm_hadr_database_replica_states、sys.database_mirroring)暴露出來,就是我們常見的NOT SYNCHRONIZING/Disconnect狀態,這時候自動化運維繫統或者DBA就需要做判斷處理,等到Secondary修復重新聯機後會向Primary報告End of Log (EOL) LSN,Primary端再向它傳送EOL LSN 之後hardened的所有日誌,一旦Secondary端開始接收到這些日誌並逐步刷到日誌檔案中,那麼整個AG或者Mirroring相關的檢視又會標記其狀態為Synchronizing,表明正在追趕直到Last Hardened (LH) LSN達到主備一致狀態,這時重新回到同步模式。

以前的情況一直是這樣,直到SQLServer 2017 CU 1引入了REQUIRED_SYNCHRONIZED_SECONDARIES_TO_COMMIT這個引數,引數名字很長但也基本包含了他的作用,應對剛才的場景是可以讓Primary端一直等到Secondary節點重新聯機並同步後在提供服務。

瞭解了AG同步、非同步以及FCI,在總結下我們關心的點

在實際方案中這些也可以結合起來,最終再和阿里雲產品整合做一個整體方案,之前也講到阿里雲從15年就開始做類似方案來解決使用者問題,一直到最終PaaS化也過度了三個版本。

雲上演進

第一版本我們使用了ECS、SSD雲盤、OSS、VPC、SLB作為基礎;在SQL技術上,我們使用SQL+WSFC+AD的方式,目前看這種方式支援的版本也非常多,從12到17都可以;驗證方式既可以用域控也可以用證書。

但他有2個缺點:第一是成本高,除了Primary和兩個Secondary節點還要有兩個AD節點,畢竟我們每個環節都要保證高可用;
第二點是穩定性不夠,網路抖動的情況非常容易讓WSFC判斷異常,SQL端DB同時出現不可用;

這是第二版的架構,跟第一版相比我們用到了HAVIP來解決監聽器問題,去掉了AD只能用證書做驗證,但也因此最小資源開銷降低到3;這個方案也是之前在阿里雲上用的比較多的,但同第一個方案一樣,在網路穩定性上會有很多挑戰,因為我們未來面對的場景不只是同城跨可用區還會有更多跨Region以及打通海外的場景,所以這個方案也只能Cover一部分使用者的需求,但對我們不是一個最終方案。

最終我們找到了方案三,去除了WSFC和AD,只關注基礎雲產品和SQL本身;最終要的是跟方案二相比,對網路的抖動敏感度會更低也更可控,最多是在Primary端出現Send Queue的堆積,這個我們完全可以通過SQLServer相關的Performance Counter監控並做一些修復調整。

但沒有方案是完美的,可控性強的代價是這種無群集無域控架構原生是不具備HADR能力的,這點熟悉WSFC的同學可以知道之前架構的HA都是依賴WSFC,他包括健康檢查、資源管理、分散式元資料通知維護以及故障轉移,所以這時候就必須我們自己去解決這個問題;為此我們也做了很多努力,最終實現了支援AlwaysOn無域控無群集的HA系統,不依賴Cluster完全自主可控的HA。

產品化

最終的產品架構如下,首先會保證有2個同步節點做主備,並且儘量分配在不同的可用區,其它只讀節點預設是非同步,最多可以有7個只讀節點;使用者的訪問鏈路可以有三種:

  • 第一種是讀寫鏈路,會指向兩個同步節點,由我們的HA來保證高可用
  • 第二種是統一隻讀鏈路,根據使用者需求設定,把指定的Replica節點繫結到一起按照一定的權重比例分配連結
  • 第三種是單一隻讀鏈路,即每個只讀節點會提供一個單獨的連結,讓使用者也可以自己靈活配置,比如使用者的APP Server就是在可用區A那麼就可以直接訪問可用區A的只讀地址,避免再通過統一隻讀被路由到其它區域

至此SQLServer AlwaysOn已經在阿里雲PaaS化,當然目前只是支援最主要功能,後續還有很多可以完善豐富的地方,希望有更多使用者瞭解和使用這個產品並幫他們解決實際問題。

原文連結