1. 程式人生 > >雲時代架構讀後感

雲時代架構讀後感

伸縮性 閱讀 做的 使用 集中 系統 不足 實時數據 100%

本次閱讀文章為:螞蟻金服11.11:支付寶和螞蟻花唄的技術架構及實踐

文章地址:https://mp.weixin.qq.com/s?__biz=MzAwNjQwNzU2NQ==&mid=401735445&idx=1&sn=0f8cc086e413332fddad5b05f0363a7e&scene=21#wechat_redirect

通過閱讀“支付寶和螞蟻花唄的技術架構及實踐”,了解到一些支付寶和花唄的架構技術,以及所用架構的特性,還有分布式數據架構方面的內容。

雙11的意義尤為重大,它已經發展成為全世界電商和消費者都參與進來的盛宴。而對技術人員來說,雙十一無疑已經成為一場大考,考量的角度是整體架構、基礎中間件、運維工具、人員等。一次成功的大促準備不光是針對活動本身對系統和架構做的優化措施,比如:流量控制,緩存策略,依賴管控,性能優化……更是與長時間的技術積累和打磨分不開。

通過閱讀這篇文章,我了解到支付寶所用的架構平臺分為三層:

(1)運維平臺(IAAS):主要提供基礎資源的可伸縮性,比如網絡、存儲、數據庫、虛擬化、IDC等,保證底層系統平臺的穩定性;

(2)技術平臺(PAAS):主要提供可伸縮、高可用的分布式事務處理和服務計算能力,能夠做到彈性資源的分配和訪問控制,提供一套基礎的中間件運行環境,屏蔽底層資源的復雜性;

(3)業務平臺(SAAS):提供隨時隨地高可用的支付服務,並且提供一個安全易用的開放支付應用開發平臺。

在雙十一大促當天,支付寶面臨的考驗越來越大,因此提出了邏輯數據中心架構,核心思想是把數據水平拆分的思路向上層提到接入層、終端, 從接入層開始把系統分成多個單元,單元有幾個特性:

(1)每個單元對外是封閉的,包括系統間交換各類存儲的訪問;

(2)每個單元的實時數據是獨立的,不共享。而會員或配置類對延時性要求不高的數據可共享;

(3)單元之間的通信統一管控,盡量走異步化消息。同步消息走單元代理方案;

這套架構解決了幾個關鍵問題:

(1)由於盡量減少了跨單元交互和使用異步化,使得異地部署成為可能。整個系統的水平可伸縮性大大提高,不再依賴同城IDC;

(2)可以實現N+1的異地災備策略,大大縮減災備成本,同時確保災備設施真實可用;

(3)整個系統已無單點存在,大大提升了整體的高可用性;同城和異地部署的多個單元可用作互備的容災設施,通過運維管控平臺進行快速切換,有機會實現100%的持續可用率;

(4)該架構下業務級別的流量入口和出口形成了統一的可管控、可路由的控制點,整體系統的可管控能力得到很大提升。基於該架構,線上壓測、流量管控、灰度發布等以前難以實現的運維管控模式,現在能夠十分輕松地實現。

目前新架構的同城主體框架在2013年已經完成,並且順利的面對了雙十一的考驗,讓整套架構的落地工作得到了很好的證明。

現在支付寶的數據架構已經從集中式的小型機和高端存儲升級到了分布式PC服務解決方案,整體數據架構的解決方案盡量做到無廠商依賴,並且標準化。支付寶分布式數據架構可伸縮策略主要分為三個維度:(1)按照業務類型進行垂直劃分(2)按照客戶請求進行水平拆分(3)對於讀遠遠大於寫的數據進行讀寫分離和數據復制處理。

螞蟻花唄是今年新增加的新支付工具,支撐螞蟻花唄業務發展的技術體系經過不斷演進、已經完全依托於螞蟻金服的金融雲架構。經過這麽多年的高可用架構和大促的準備工作,螞蟻金融技術團隊可以做到“先勝而後求戰”,主要分為三方面技術積累:“謀”,“器”,“將”。

過去我們是通過某個開源或者商業組件來實現技術共享得到快速解決謀發展技術的能力的,但是隨著業務復雜性,專業性,規模的逐步變大,這種方式的缺點也是顯而易見的:(1)很多組件根本無法滿足大並發場景下的各種技術指標;(2)隨著業務的復雜和專業性的提高,沒有可以直接使用的開源組件;(3)“人”本身的經驗和能力是無法傳遞的。所以現在我們通過“雲”分享的技術和業務的能力的方式也發展的越來越快。

在當前大數據時代,目前從業務和市場的發展形勢來看,往往就是需要技術在某個特定時間有個質的能力的提升和飛躍,不會給你太多的準備技術架構提升的時間,在技術積累和人員儲備都不足的時候,如何構建平臺能力,把更多的精力放在業務相關的開發任務中,是每個技術團隊的希望得到的能力 。

雲時代架構讀後感