1. 程式人生 > >基於 Docker 的微服務架構實踐

基於 Docker 的微服務架構實踐

python 數據模型 後臺進程 3年 lan yqi erlang 規劃 人員

本文來自作者 未聞 在 GitChat 分享的{基於 Docker 的微服務架構實踐}

前言

基於 Docker 的容器技術是在2015年的時候開始接觸的,兩年多的時間,作為一名 Docker 的 DevOps,也見證了 Docker 的技術體系的快速發展。本文主要是結合在公司搭建的微服務架構的實踐過程,做一個簡單的總結。希望給在創業初期探索如何布局服務架構體系的 DevOps,或者想初步了解企業級架構的同學們一些參考。


Microservice 和 Docker

對於創業公司的技術布局,很多聲音基本上是,創業公司就是要快速上線快速試錯。用單應用或者前後臺應用分離的方式快速集成,快速開發,快速發布。但其實這種結果造成的隱性成本會更高。當業務發展起來,開發人員多了之後,就會面臨龐大系統的部署效率,開發協同效率問題。然後通過服務的拆分,數據的讀寫分離、分庫分表等方式重新架構,而且這種方式如果要做的徹底,需要花費大量人力物力。

個人建議,DevOps 結合自己對於業務目前以及長期的發展判斷,能夠在項目初期使用微服務架構,多為後人謀福。

隨著 Docker 周圍開源社區的發展,讓微服務架構的概念能有更好的一個落地實施的方案。並且在每一個微服務應用內部,都可以使用 DDD(Domain-Drive Design)的六邊形架構來進行服務內的設計。關於 DDD 的一些概念也可以參考之前寫的幾篇文章:領域驅動設計整理——概念&架構、領域驅動設計整理——實體和值對象設計、領域服務、領域事件。

清晰的微服務的領域劃分,服務內部有架構層次的優雅的實現,服務間通過 RPC 或者事件驅動完成必要的 IPC,使用 API gateway 進行所有微服務的請求轉發,非阻塞的請求結果合並。本文下面會具體介紹,如何在分布式環境下,也可以快速搭建起來具有以上幾點特征的,微服務架構 with Docker。


服務發現模式

如果使用 Docker 技術來架構微服務體系,服務發現就是一個必然的課題。目前主流的服務發現模式有兩種:客戶端發現模式,以及服務端發現模式。

客戶端發現模式

客戶端發現模式的架構圖如下:

技術分享圖片

客戶端發現模式的典型實現是Netflix體系技術。客戶端從一個服務註冊服務中心查詢所有可用服務實例。客戶端使用負載均衡算法從多個可用的服務實例中選擇出一個,然後發出請求。比較典型的一個開源實現就是 Netflix 的 Eureka。


Netflix-Eureka

Eureka 的客戶端是采用自註冊的模式,客戶端需要負責處理服務實例的註冊和註銷,發送心跳。

在使用 SpringBoot 集成一個微服務時,結合 SpringCloud 項目可以很方便得實現自動註冊。在服務啟動類上添加@EnableEurekaClient即可在服務實例啟動時,向配置好的 Eureka 服務端註冊服務,並且定時發送以心跳。客戶端的負載均衡由 Netflix Ribbon 實現。服務網關使用 Netflix Zuul,熔斷器使用 Netflix Hystrix。

除了服務發現的配套框架,SpringCloud 的 Netflix-Feign,提供了聲明式的接口來處理服務的 Rest 請求。當然,除了使用 FeignClient,也可以使用 Spring RestTemplate。項目中如果使用@FeignClient可以使代碼的可閱讀性更好,Rest API 也一目了然。

服務實例的註冊管理、查詢,都是通過應用內調用 Eureka 提供的 REST API 接口(當然使用 SpringCloud-Eureka 不需要編寫這部分代碼)。由於服務註冊、註銷是通過客戶端自身發出請求的,所以這種模式的一個主要問題是對於不同的編程語言會註冊不同服務,需要為每種開發語言單獨開發服務發現邏輯。另外,使用 Eureka 時需要顯式配置健康檢查支持。


服務端發現模式

服務端發現模式的架構圖如下:

技術分享圖片

客戶端向負載均衡器發出請求,負載均衡器向服務註冊表發出請求,將請求轉發到註冊表中可用的服務實例。服務實例也是在註冊表中註冊,註銷的。負載均衡可以使用可以使用 Haproxy 或者 Nginx。服務端發現模式目前基於 Docker 的主流方案主要是 Consul、Etcd 以及 Zookeeper。


Consul

Consul 提供了一個 API 允許客戶端註冊和發現服務。其一致性上基於RAFT算法。通過 WAN 的 Gossip 協議,管理成員和廣播消息,以完成跨數據中心的同步,且支持 ACL 訪問控制。Consul 還提供了健康檢查機制,支持 kv 存儲服務(Eureka 不支持)。Consul 的一些更詳細的介紹可以參考之前寫的一篇:Docker 容器部署 Consul 集群。


Etcd

Etcd 都是強一致的(滿足 CAP 的 CP),高可用的。Etcd 也是基於 RAFT 算法實現強一致性的 KV 數據同步。Kubernetes 中使用 Etcd 的 KV 結構存儲所有對象的生命周期。

關於 Etcd 的一些內部原理可以看下etcd v3原理分析


Zookeeper

ZK 最早應用於 Hadoop,其體系已經非常成熟,常被用於大公司。如果已經有自己的 ZK 集群,那麽可以考慮用 ZK 來做自己的服務註冊中心。

Zookeeper 同 Etcd 一樣,強一致性,高可用性。一致性算法是基於 Paxos 的。對於微服務架構的初始階段,沒有必要用比較繁重的 ZK 來做服務發現。


服務註冊

服務註冊表是服務發現中的一個重要組件。除了 Kubernetes、Marathon 其服務發現是內置的模塊之外。服務都是需要註冊到註冊表上。上文介紹的 Eureka、consul、etcd 以及 ZK 都是服務註冊表的例子。

微服務如何註冊到註冊表也是有兩種比較典型的註冊方式:自註冊模式,第三方註冊模式。

自註冊模式 Self-registration pattern

上文中的 Netflix-Eureka 客戶端就是一個典型的自註冊模式的例子。也即每個微服務的實例本身,需要負責註冊以及註銷服務。Eureka 還提供了心跳機制,來保證註冊信息的準確,具體的心跳的發送間隔時間可以在微服務的 SpringBoot 中進行配置。

如下,就是使用 Eureka 做註冊表時,在微服務(SpringBoot 應用)啟動時會有一條服務註冊的信息:

技術分享圖片

同樣,在應用停用時,服務實例需要主動註銷本實例信息:

技術分享圖片

自註冊方式是比較簡單的服務註冊方式,不需要額外的設施或代理,由微服務實例本身來管理服務註冊。但是缺點也很明顯,比如 Eureka 目前只提供了 Java 客戶端,所以不方便多語言的微服務擴展。因為需要微服務自己去管理服務註冊邏輯,所以微服務實現也耦合了服務註冊和心跳機制。跨語言性比較差。


第三方註冊模式 Third party registration pattern

第三方註冊,也即服務註冊的管理(註冊、註銷服務)通過一個專門的服務管理器(Registar)來負責。Registrator 就是一個開源的服務管理器的實現。Registrator 提供了對於 Etcd 以及 Consul 的註冊表服務支持。 Registrator 作為一個代理服務,需要部署、運行在微服務所在的服務器或者虛擬機中。比較簡單的安裝方式就是通過 Docker,以容器的方式來運行。

三方註冊模式的架構圖如下:

技術分享圖片

通過添加一個服務管理器,微服務實例不再直接向註冊中心註冊,註銷。由服務管理器(Registar)通過訂閱服務,跟蹤心跳,來發現可用的服務實例,並向註冊中心(consul、etcd 等)註冊,註銷實例,以及發送心跳。這樣就可以實現服務發現組件和微服務架構的解耦。

Registrator 配合 Consul,以及 Consul Template 搭建服務發現中心,可以參考: Scalable Architecture DR CoN: Docker, Registrator, Consul, Consul Template and Nginx 。此文示例了 Nginx 來做負載均衡,在具體的實施過程中也可以用 Haproxy 或其他方案進行替代。


小結

除了以上幾種做服務發現的技術,Kubernetes 自帶了服務發現模塊,負責處理服務實例的註冊和註銷。Kubernetes 也在每個集群節點上運行代理,來實現服務端發現路由器的功能。如果編排技術使用的 k8n,可以用 k8n 的一整套 Docker 微服務方案,對 k8n 感興趣的可以閱讀下Kubernetes 架構設計與核心原理。

在實際的技術選型中,最主要還是要結合業務、系統的未來發展的特征進行合理判斷。

  • 在 CAP 理論中。Eureka 滿足了 AP,Consul 是 CA,ZK 和 Etcd 是 CP。 在分布式場景下 Eureka 和 Consul 都能保證可用性。而搭建 Eureka 服務會相對更快速,因為不需要搭建額外的高可用服務註冊中心,在小規模服務器實例時,使用 Eureka 可以節省一定成本。

  • Eureka、Consul 都提供了可以查看服務註冊數據的 WebUI 組件。Consul 還提供了 KV 存儲,支持支持 http 和 dns 接口。對於創業公司最開始搭建微服務,比較推薦這兩者。

  • 在多數據中心方面,Consul 自帶數據中心的 WAN 方案。ZK 和 Etcd 均不提供多數據中心功能的支持,需要額外的開發。

  • 跨語言性上,Zookeeper 需要使用其提供的客戶端 api,跨語言支持較弱。Etcd、Eureka 都支持 http,Etcd 還支持 grpc。Consul 除了 http 之外還提供了 DNS 的支持。

  • 安全方面,Consul,Zookeeper 支持 ACL,另外 Consul、Etcd 支持安全通道 Https。

  • SpringCloud 目前對於 Eureka、Consul、Etcd、ZK 都有相應的支持。

  • Consul 和 Docker 一樣,都是用 Go 語言實現,基於 Go 語言的微服務應用可以優先考慮用 Consul。


服務間的 IPC 機制

按照微服務的架構體系,解決了服務發現的問題之後。就需要選擇合適的服務間通信的機制。如果是在 SpringBoot 應用中,使用基於 Http 協議的 REST API 是一種同步的解決方案。而且 Restful 風格的 API 可以使每個微服務應用更加趨於資源化,使用輕量級的協議也是微服務一直提倡的。

如果每個微服務是使用 DDD(Domain-Driven Design)思想的話,那麽需要每個微服務盡量不使用同步的 RPC 機制。異步的基於消息的方式比如 AMQP 或者 STOMP,來松耦合微服務間的依賴會是很好的選擇。目前基於消息的點對點的 pub/sub 的框架選擇也比較多。下面具體介紹下兩種 IPC 的一些方案。


同步

對於同步的請求/響應模式的通信方式。可以選擇基於 Restful 風格的 Http 協議進行服務間通信,或者跨語言性很好的 Thrift 協議。如果是使用純 Java 語言的微服務,也可以使用 Dubbo。如果是 SpringBoot 集成的微服務架構體系,建議選擇跨語言性好、Spring 社區支持比較好的 RPC。

Dubbo

Dubbo是由阿裏巴巴開發的開源的 Java 客戶端的 RPC 框架。Dubbo 基於 TCP 協議的長連接進行數據傳輸。傳輸格式是使用 Hessian 二進制序列化。服務註冊中心可以通過 Zookeeper 實現。

ApacheThrift

ApacheThrift 是由 Facebook 開發的 RPC 框架。其代碼生成引擎可以在多種語言中,如 C++、 Java、Python、PHP、Ruby、Erlang、Perl 等創建高效的服務。傳輸數據采用二進制格式,其數據包要比使用 Json 或者 XML 格式的 HTTP 協議小。高並發,大數據場景下更有優勢。

Rest

Rest 基於 HTTP 協議,HTTP 協議本身具有語義的豐富性。隨著 Springboot 被廣泛使用,越來越多的基於 Restful 風格的 API 流行起來。REST 是基於 HTTP 協議的,並且大多數開發者也是熟知 HTTP 的。

這裏另外提一點,很多公司或者團隊也是使用Springboot的,也在說自己是基於 Restful 風格的。但是事實其實往往是實施得並不到位。對於你的 Restful 是否是真的 Restful,可以參考這篇文章,對於 Restful 風格 API 的成熟度進行了四個層次的分析: Richardson Maturity Model steps toward the glory of REST。

如果使用Springboot的話,無論使用什麽服務發現機制,都可以通過 Spring 的RestTemplate來做基礎的Http請求封裝。

如果使用的前文提到的Netflix-Eureka的話,可以使用Netflix-Feign。Feign是一個聲明式 Web Service 客戶端。客戶端的負載均衡使用 Netflix-Ribbon。

異步

在微服務架構中,排除純粹的“事件驅動架構”,使用消息隊列的場景一般是為了進行微服務之間的解耦。服務之間不需要了解是由哪個服務實例來消費或者發布消息。只要處理好自己領域範圍的邏輯,然後通過消息通道來發布,或者訂閱自己關註的消息就可以。目前開源的消息隊列技術也很多。比如 Apache Kafka,RabbitMQ,Apache ActiveMQ 以及阿裏巴巴的 RocketMQ 目前已經成為 Apache 項目之一。消息隊列的模型中,主要的三個組成就是:

  • Producer:生產消息,將消息寫入 channel。

  • Message Broker:消息代理,將寫入 channel 的消息按隊列的結構進行管理。負責存儲/轉發消息。Broker 一般是需要單獨搭建、配置的集群,而且必須是高可用的。

  • Consumer:消息的消費者。目前大多數的消息隊列都是保證消息至少被消費一次。所以根據使用的消息隊列設施不同,消費者要做好冪等。

不同的消息隊列的實現,消息模型不同。各個框架的特性也不同:

RabbitMQ

RabbitMQ 是基於 AMQP 協議的開源實現,由以高性能、可伸縮性出名的 Erlang 寫成。目前客戶端支持 Java、.Net/C# 和 Erlang。在 AMQP(Advanced Message Queuing Protocol)的組件中,Broker 中可以包含多個Exchange(交換機)組件。Exchange 可以綁定多個 Queue 以及其他 Exchange。消息會按照 Exchange 中設置的 Routing 規則,發送到相應的 Message Queue。在 Consumer 消費了這個消息之後,會跟 Broker 建立連接。發送消費消息的通知。則 Message Queue 才會將這個消息移除。

Kafka

Kafka 是一個高性能的基於發布/訂閱的跨語言分布式消息系統。Kafka 的開發語言為 Scala。其比較重要的特性是:

  • 以時間復雜度為O(1)的方式快速消息持久化;

  • 高吞吐率;

  • 支持服務間的消息分區,及分布式消費,同時保證消息順序傳輸;

  • 支持在線水平擴展,自帶負載均衡;

  • 支持只消費且僅消費一次(Exactly Once)模式等等。

  • 說個缺點: 管理界面是個比較雞肋了點,可以使用開源的kafka-manager

其高吞吐的特性,除了可以作為微服務之間的消息隊列,也可以用於日誌收集, 離線分析, 實時分析等。

Kafka 官方提供了 Java 版本的客戶端 API,Kafka 社區目前也支持多種語言,包括 PHP、Python、Go、C/C++、Ruby、NodeJS 等。

ActiveMQ

ActiveMQ 是基於 JMS(Java Messaging Service)實現的 JMSProvider。JMS主要提供了兩種類型的消息:點對點(Point-to-Point)以及發布/訂閱(Publish/Subscribe)。目前客戶端支持 Java、C、C++、 C#、Ruby、Perl、Python、PHP。而且 ActiveMQ 支持多種協議:Stomp、AMQP、MQTT 以及 OpenWire。

RocketMQ/ONS

RocketMQ 是由阿裏巴巴研發開源的高可用分布式消息隊列。ONS是提供商業版的高可用集群。ONS 支持 pull/push。可支持主動推送,百億級別消息堆積。ONS 支持全局的順序消息,以及有友好的管理頁面,可以很好的監控消息隊列的消費情況,並且支持手動觸發消息多次重發。


小結

通過上篇的微服務的服務發現機制,加上 Restful API,可以解決微服務間的同步方式的進程間通信。當然,既然使用了微服務,就希望所有的微服務能有合理的限界上下文(系統邊界)。微服務之間的同步通信應盡量避免,以防止服務間的領域模型互相侵入。為了避免這種情況,就可以在微服務的架構中使用一層API gateway(會在下文介紹)。所有的微服務通過API gateway進行統一的請求的轉發,合並。並且API gateway也需要支持同步請求,以及NIO的異步的請求(可以提高請求合並的效率以及性能)。

消息隊列可以用於微服務間的解耦。在基於Docker的微服務的服務集群環境下,網絡環境會比一般的分布式集群復雜。選擇一種高可用的分布式消息隊列實現即可。如果自己搭建諸如Kafka、RabbitMQ集群環境的話,那對於Broker設施的高可用性會要求很高。基於Springboot的微服務的話,比較推薦使用Kafka 或者ONS。雖然ONS是商用的,但是易於管理以及穩定性高,尤其對於必要場景才依賴於消息隊列進行通信的微服務架構來說,會更適合。如果考慮到會存在日誌收集,實時分析等場景,也可以搭建Kafka集群。目前阿裏雲也有了基於Kafka的商用集群設施。


使用 API Gateway 處理微服務請求轉發、合並

前面主要介紹了如何解決微服務的服務發現和通信問題。在微服務的架構體系中,使用DDD思想劃分服務間的限界上下文的時候,會盡量減少微服務之間的調用。為了解耦微服務,便有了基於API Gateway方式的優化方案。

解耦微服務的調用

比如,下面一個常見的需求場景——“用戶訂單列表”的一個聚合頁面。需要請求”用戶服務“獲取基礎用戶信息,以及”訂單服務“獲取訂單信息,再通過請求“商品服務”獲取訂單列表中的商品圖片、標題等信息。如下圖所示的場景 :

技術分享圖片

如果讓客戶端(比如H5、Android、iOS)發出多個請求來解決多個信息聚合,則會增加客戶端的復雜度。比較合理的方式就是增加API Gateway層。API Gateway跟微服務一樣,也可以部署、運行在Docker容器中,也是一個Springboot應用。如下,通過Gateway API進行轉發後:

技術分享圖片

所有的請求的信息,由Gateway進行聚合,Gateway也是進入系統的唯一節點。並且Gateway和所有微服務,以及提供給客戶端的也是Restful風格API。Gateway層的引入可以很好的解決信息的聚合問題。而且可以更好得適配不同的客戶端的請求,比如H5的頁面不需要展示用戶信息,而iOS客戶端需要展示用戶信息,則只需要添加一個Gateway API請求資源即可,微服務層的資源不需要進行變更。


API Gateway 的特點

API gateway除了可以進行請求的合並、轉發。還需要有其他的特點,才能成為一個完整的Gateway。

響應式編程

Gateway是所有客戶端請求的入口。類似Facade模式。為了提高請求的性能,最好選擇一套非阻塞I/O的框架。在一些需要請求多個微服務的場景下,對於每個微服務的請求不一定需要同步。前文舉例的“用戶訂單列表”的例子中,獲取用戶信息,以及獲取訂單列表,就是兩個獨立請求。只有獲取訂單的商品信息,需要等訂單信息返回之後,根據訂單的商品id列表再去請求商品微服務。為了減少整個請求的響應時間,需要Gateway能夠並發處理相互獨立的請求。一種解決方案就是采用響應式編程。

目前使用Java技術棧的響應式編程方式有,Java8的CompletableFuture,以及ReactiveX提供的基於JVM的實現-RxJava。

ReactiveX是一個使用可觀察數據流進行異步編程的編程接口,ReactiveX結合了觀察者模式、叠代器模式和函數式編程的精華。除了RxJava還有RxJS,RX.NET等多語言的實現。

對於Gateway來說,RxJava提供的Observable可以很好的解決並行的獨立I/O請求,並且如果微服務項目中使用Java8,團隊成員會對RxJava的函數學習吸收會更快。同樣基於Lambda風格的響應式編程,可以使代碼更加簡潔。關於RxJava的詳細介紹可以可以閱讀RxJava文檔和教程。

通過響應式編程的Observable模式,可以很簡潔、方便得創建事件流、數據流,以及用簡潔的函數進行數據的組合和轉換,同時可以訂閱任何可觀察的數據流並執行操作。

通過使用RxJava,“用戶訂單列表”的資源請求時序圖:

技術分享圖片

響應式編程可以更好的處理各種線程同步、並發請求,通過Observables和Schedulers提供了透明的數據流、事件流的線程處理。在敏捷開發模式下,響應式編程使代碼更加簡潔,更好維護。


鑒權

Gateway作為系統的唯一入口,基於微服務的所有鑒權,都可以圍繞Gateway去做。在Springboot工程中,基礎的授權可以使用spring-boot-starter-security以及Spring Security(Spring Security也可以集成在Spring MVC項目中)。

Spring Security主要使用AOP,對資源請求進行攔截,內部維護了一個角色的Filter Chain。因為微服務都是通過Gateway請求的,所以微服務的@Secured可以根據Gateway中不同的資源的角色級別進行設置。

Spring Security提供了基礎的角色的校驗接口規範。但客戶端請求的Token信息的加密、存儲以及驗證,需要應用自己完成。對於Token加密信息的存儲可以使用Redis。這裏再多提一點,為了保證一些加密信息的可變性,最好在一開始設計Token模塊的時候就考慮到支持多個版本密鑰,以防止萬一內部密鑰被泄露(之前聽一個朋友說其公司的Token加密代碼被員工公布出去)。至於加密算法,以及具體的實現在此就不再展開。 在Gateway鑒權通過之後,解析後的token信息可以直接傳遞給需要繼續請求的微服務層。

如果應用需要授權(對資源請求需要管理不同的角色、權限),也只要在Gateway的Rest API基礎上基於AOP思想來做即可。統一管理鑒權和授權,這也是使用類似Facade模式的Gateway API的好處之一。


負載均衡

API Gateway跟Microservice一樣,作為Springboot應用,提供Rest api。所以同樣運行在Docker容器中。Gateway和微服務之間的服務發現還是可以采用前文所述的客戶端發現模式,或者服務端發現模式。

在集群環境下,API Gateway 可以暴露統一的端口,其實例會運行在不同IP的服務器上。因為我們是使用阿裏雲的ECS作為容器的基礎設施,所以在集群環境的負載均衡也是使用阿裏雲的負載均衡SLB,域名解析也使用AliyunDNS。下圖是一個簡單的網絡請求的示意:

技術分享圖片

在實踐中,為了不暴露服務的端口和資源地址,也可以在服務集群中再部署Nginx服務作為反向代理,外部的負載均衡設施比如SLB可以將請求轉發到Nginx服務器,請求通過Nginx再轉發給Gateway端口。如果是自建機房的集群,就需要搭建高可用的負載均衡中心。為了應對跨機器請求,最好使用Consul,Consul(Consul Template)+Registor+Haproxy來做服務發現和負載均衡中心。


緩存

對於一些高QPS的請求,可以在API Gateway做多級緩存。分布式的緩存可以使用Redis,Memcached等。如果是一些對實時性要求不高的,變化頻率不高但是高QPS的頁面級請求,也可以在Gateway層做本地緩存。而且Gateway可以讓緩存方案更靈活和通用。

API Gateway的錯誤處理

在Gateway的具體實現過程中,錯誤處理也是一個很重要的事情。對於Gateway的錯誤處理,可以使用Hystrix來處理請求的熔斷。並且RxJava自帶的onErrorReturn回調也可以方便得處理錯誤信息的返回。對於熔斷機制,需要處理以下幾個方面:


  • 服務請求的容錯處理

作為一個合理的Gateway,其應該只負責處理數據流、事件流,而不應該處理業務邏輯。在處理多個微服務的請求時,會出現微服務請求的超時、不可用的情況。在一些特定的場景下, 需要能夠合理得處理部分失敗。比如上例中的“用戶訂單列表”,當“User”微服務出現錯誤時,不應該影響“Order”數據的請求。最好的處理方式就是給當時錯誤的用戶信息請求返回一個默認的數據,比如顯示一個默認頭像,默認用戶昵稱。然後對於請求正常的訂單,以及商品信息給與正確的數據返回。如果是一個關鍵的微服務請求異常,比如當“Order”領域的微服務異常時,則應該給客戶端一個錯誤碼,以及合理的錯誤提示信息。這樣的處理可以盡量在部分系統不可用時提升用戶體驗。使用RxJava時,具體的實現方式就是針對不同的客戶端請求的情況,寫好onErrorReturn,做好錯誤數據兼容即可。


  • 異常的捕捉和記錄

Gateway主要是做請求的轉發、合並。為了能清楚得排查問題,定位到具體哪個服務、甚至是哪個Docker容器的問題,需要Gateway能對不同類型的異常、業務錯誤進行捕捉和記錄。如果使用FeignClient來請求微服務資源,可以通過對ErrorDecoder接口的實現,來針對Response結果進行進一步的過濾處理,以及在日誌中記錄下所有請求信息。如果是使用Spring Rest Template,則可以通過定義一個定制化的RestTempate,並對返回的ResponseEntity進行解析。在返回序列化之後的結果對象之前,對錯誤信息進行日誌記錄。


  • 超時機制

Gateway線程中大多是IO線程,為了防止因為某一微服務請求阻塞,導致Gateway過多的等待線程,耗盡線程池、隊列等系統資源。需要Gateway中提供超時機制,對超時接口能進行優雅的服務降級。

在SpringCloud的Feign項目中集成了Hystrix。Hystrix提供了比較全面的超時處理的熔斷機制。默認情況下,超時機制是開啟的。除了可以配置超時相關的參數,Netflix還提供了基於Hytrix的實時監控Netflix -Dashboard,並且集群服務只需再附加部署Netflix-Turbine。通用的Hytrix的配置項可以參考Hystrix-Configuration。

如果是使用RxJava的Observable的響應式編程,想對不同的請求設置不同的超時時間,可以直接在Observable的timeout()方法的參數進行設置回調的方法以及超時時間等。


  • 重試機制

對於一些關鍵的業務,在請求超時時,為了保證正確的數據返回,需要Gateway能提供重試機制。如果使用SpringCloudFeign,則其內置的Ribbon,會提供的默認的重試配置,可以通過設置spring.cloud.loadbalancer.retry.enabled=false將其關閉。Ribbon提供的重試機制會在請求超時或者socket read timeout觸發,除了設置重試,也可以定制重試的時間閥值以及重試次數等。

對於除了使用Feign,也使用Spring RestTemplate的應用,可以通過自定義的RestTemplate,對於返回的ResponseEntity對象進行結果解析,如果請求需要重試(比如某個固定格式的error-code的方式識別重試策略),則通過Interceptor進行請求攔截,以及回調的方式invoke多次請求。


小結

對於微服務的架構,通過一個獨立的API Gateway,可以進行統一的請求轉發、合並以及協議轉換。可以更靈活得適配不同客戶端的請求數據。而且對於不同客戶端(比如H5和iOS的展示數據不同)、不同版本兼容的請求,可以很好地在Gateway進行屏蔽,讓微服務更加純粹。微服務只要關註內部的領域服務的設計,事件的處理。

API gateway還可以對微服務的請求進行一定的容錯、服務降級。使用響應式編程來實現API gateway可以使線程同步、並發的代碼更簡潔,更易於維護。在對於微服務的請求可以統一通過FeignClint。代碼也會很有層次。如下圖,是一個示例的請求的類層次。

技術分享圖片

  • Clint負責集成服務發現(對於使用Eureka自註冊方式)、負載均衡以及發出請求,並獲取ResponseEntity對象。

  • Translator將ResponseEntity轉換成Observable<XDTO>對象,以及對異常進行統一日誌采集,類似於DDD中防腐層的概念。

  • Adapter調用各個Translator,使用Observable函數,對請求的數據流進行合並。如果存在多個數據的組裝,可以增加一層Assembler專門處理DTO對象到Model的轉換。

  • Controller,提供Restful資源的管理,每個Controller只請求唯一的一個Adapter方法。


微服務的持續集成部署

前文主要介紹了微服務的服務發現、服務通信以及API Gateway。整體的微服務架構的模型初見。在實際的開發、測試以及生產環境中。使用Docker實現微服務,集群的網絡環境會更加復雜。微服務架構本身就意味著需要對若幹個容器服務進行治理,每個微服務都應可以獨立部署、擴容、監控。下面會繼續介紹如何進行Docker微服務的持續集成部署(CI/CD)。


鏡像倉庫

用Docker來部署微服務,需要將微服務打包成Docker鏡像,就如同部署在Web server打包成war文件一樣。只不過Docker鏡像運行在Docker容器中。

如果是Springboot服務,則會直接將包含Apache Tomcat server的Springboot,以及包含Java運行庫的編譯後的Java應用打包成Docker鏡像。

為了能統一管理打包以及分發(pull/push)鏡像。企業一般需要建立自己的鏡像私庫。實現方式也很簡單。可以在服務器上直接部署Docker hub的鏡像倉庫的容器版Registry2。目前最新的版本是V2。


代碼倉庫

代碼的提交、回滾等管理,也是項目持續集成的一環。一般也是需要建立企業的代碼倉庫的私庫。可以使用SVN,GIT等代碼版本管理工具。

目前公司使用的是Gitlab,通過Git的Docker鏡像安裝、部署操作也很便捷。具體步驟可以參考docker gitlab install。為了能快速構建、打包,也可將Git和Registry部署在同一臺服務器上。


項目構建

在Springboot項目中,構建工具可以用Maven,或者Gradle。Gradle相比Maven更加靈活,而且Springboot應用本身去配置化的特點,用基於Groovy的Gradle會更加適合,DSL本身也比XML更加簡潔高效。

因為Gradle支持自定義task。所以微服務的Dockerfile寫好之後,就可以用Gradle的task腳本來進行構建打包成Docker Image。

目前也有一些開源的Gradle構建Docker鏡像的工具,比如Transmode-Gradlew插件。其除了可以對子項目(單個微服務)進行構建Docker鏡像,也可以支持同時上傳鏡像到遠程鏡像倉庫。在生產環境中的build機器上,可以通過一個命令直接執行項目的build,Docker Image的打包,以及鏡像的push。


容器編排技術

Docker鏡像構建之後,因為每個容器運行著不同的微服務實例,容器之間也是隔離部署服務的。通過編排技術,可以使DevOps輕量化管理容器的部署以及監控,以提高容器管理的效率。

目前一些通用的編排工具比如Ansible、Chef、Puppet,也可以做容器的編排。但他們都不是專門針對容器的編排工具,所以使用時需要自己編寫一些腳本,結合Docker的命令。比如Ansible,確實可以實現很便利的集群的容器的部署和管理。目前Ansible針對其團隊自己研發的容器技術提供了集成方案:Ansible Container。

集群管理系統將主機作為資源池,根據每個容器對資源的需求,決定將容器調度到哪個主機上。

目前,圍繞Docker容器的調度、編排,比較成熟的技術有Google的Kubernetes(下文會簡寫k8s),Mesos結合Marathon管理Docker集群,以及在Docker 1.12.0版本以上官方提供的Docker Swarm。編排技術是容器技術的重點之一。選擇一個適合自己團隊的容器編排技術也可以使運維更高效、更自動化。


Docker Compose

Docker Compose是一個簡單的Docker容器的編排工具,通過YAML文件配置需要運行的應用,然後通過compose up命令啟動多個服務對應的容器實例。Docker中沒有集成Compose,需要另外安裝。

Compose可以用於微服務項目的持續集成,但其不適合大型集群的容器管理,大集群中,可以Compose結合Ansible做集群資源管理,以及服務治理。

對於集群中服務器不多的情況,可以使用Compose,其使用步驟主要是:

  1. 結合微服務運行環境,定義好服務的Dockerfile

  2. 根據服務鏡像、端口、運行變量等編寫docker-compose.yml文件,以使服務可以一起部署,運行

  3. 運行docker-compose up 命令啟動並且進入容器實例,如果需要使用後臺進程方式運行,使用docker-compose up -d即可。


Docker Swarm

在16年,Docker的1.12版本出來之後,使用新版本的Docker,就自帶Docker swarm mode了。不需要額外安裝任何插件工具。可以看出去年開始Docker團隊也開始重視服務編排技術,通過內置Swarm mode,也要搶占一部分服務編排市場。

如果團隊開始使用新版本的Docker,可以選擇Docker swarm mode來進行集群化的容器調度和管理。Swarm還支持滾動更新、節點間傳輸層安全加密、負載均衡等。

DockerSwarm的使用示例可以參考之前寫的一篇:使用docker-swarm搭建持續集成集群服務。


Kubernetes

Kubernetes是Google開源的容器集群管理系統,使用Go語言實現,其提供應用部署、維護、 擴展機制等功能。目前可以在GCE、vShpere、CoreOS、OpenShift、Azure等平臺使用k8s。國內目前Aliyun也提供了基於k8s的服務治理平臺。如果是基於物理機、虛擬機搭建的Docker集群的話,也可以直接部署、運行k8s。在微服務的集群環境下,Kubernetes可以很方便管理跨機器的微服務容器實例。

目前k8s基本是公認的最強大開源服務治理技術之一。其主要提供以下功能:

  1. 自動化對基於Docker對服務實例進行部署和復制

  2. 以集群的方式運行,可以管理跨機器的容器,以及滾動升級、存儲編排。

  3. 內置了基於Docker的服務發現和負載均衡模塊

  4. K8s提供了強大的自我修復機制,會對崩潰的容器進行替換(對用戶,甚至開發團隊都無感知),並可隨時擴容、縮容。讓容器管理更加彈性化。

k8s主要通過以下幾個重要的組件完成彈性容器集群的管理的:

  1. Pod是Kubernetes的最小的管理元素,一個或多個容器運行在pod中。pod的生命周期很短暫,會隨著調度失敗,節點崩潰,或者其他資源回收時消亡。

  2. Label是key/value存儲結構的,可以關聯pod,主要用來標記pod,給服務分組。微服務之間通過label選擇器(Selectors)來識別Pod。

  3. Replication Controller是k8s Master節點的核心組件。用來確保任何時候Kubernetes集群中有指定數量的pod副本(replicas)運行。即提供了自我修復機制的功能,並且對縮容擴容、滾動升級也很有用。

  4. Service是對一組Pod的策略的抽象。也是k8s管理的基本元素之一。Service通過Label識別一組Pod。創建時也會創建一個本地集群的DNS(存儲Service對應的Pod的服務地址)。所以在客戶端請求通過請求DNS來獲取一組當前可用的Pods的ip地址。之後通過每個Node中運行的kube-proxy將請求轉發給其中一個Pod。這層負載均衡是透明的,但是目前的k8s的負載均衡策略還不是很完善,默認是隨機的方式。


小結

微服務架構體系中,一個合適的持續集成的工具,可以很好得提升團隊的運維、開發效率。目前類似Jenkins也有針對Docker的持續集成的插件,但是還是存在很多不完善。所以建議還是選擇專門應對Docker容器編排技術的Swarm,k8s,Mesos。或者多個技術結合起來,比如Jenkins做CI+k8s做CD。

Swarm,k8s,Mesos各有各的特性,他們對於容器的持續部署、管理以及監控都提供了支持。Mesos還支持數據中心的管理。Docker swarm mode擴展了現有的Docker API,通過Docker Remote API的調用和擴展,可以調度容器運行到指定的節點。Kubernetes則是目前市場規模最大的編排技術,目前很多大公司也都加入到了k8s家族,k8s應對集群應用的擴展、維護和管理更加靈活,但是負載均衡策略比較粗糙。而Mesos更專註於通用調度,提供了多種調度器。

對於服務編排,還是要選擇最適合自己團隊的,如果初期機器數量很少,集群環境不復雜也可以用Ansible+Docker Compose,再加上Gitlab CI來做持續集成。


服務集群的解決方案

企業在實踐使用Docker部署、運行微服務應用的時候,無論是一開始就布局微服務架構,或者從傳統的單應用架構進行微服務化遷移。都需要能夠處理復雜的集群中的服務調度、編排、監控等問題。下面主要為介紹在分布式的服務集群下,如何更安全、高效得使用Docker,以及在架構設計上,需要考慮的方方面面。


負載均衡

這裏說的是集群中的負載均衡,如果是純服務端API的話就是指Gateway API的負載均衡,如果使用了Nginx的話,則是指Nginx的負載均衡。我們目前使用的是阿裏雲的負載均衡服務SLB。其中一個主要原因是可以跟DNS域名服務進行綁定。對於剛開始進行創業的公司來說,可以通過Web界面來設置負載均衡的權重,比較便於部分發布、測試驗證,以及健康檢查監控等等。從效率和節約運維成本上來說都是個比較適合的選擇。

如果自己搭建七層負載均衡如使用Nginx或Haproxy的話,也需要保證負責負載均衡的集群也是高可用的,以及提供便捷的集群監控,藍綠部署等功能。


持久化及緩存

關系型數據庫(RDBMS)

對於微服務來說,使用的存儲技術主要是根據企業的需要。為了節約成本的話,一般都是選用Mysql,在Mysql的引擎選擇的話建議選擇InnoDB引擎(5.5版本之前默認MyISAM)。InnoDB在處理並發時更高效,其查詢性能的差距也可以通過緩存、搜索等方案進行彌補。InnoDB處理數據拷貝、備份的免費方案有binlog,mysqldump。不過要做到自動化的備份恢復、可監控的數據中心還是需要DBA或者運維團隊。相對花費的成本也較高。如果初創企業,也可以考慮依托一些國內外比較大型的雲計算平臺提供的PaaS服務。

微服務一般按照業務領域進行邊界劃分,所以微服務最好是一開始就進行分庫設計。是否需要進行分表需要根據每個微服務具體的業務領域的發展以及數據規模進行具體分析。但建議對於比較核心的領域的模型,比如“訂單”提前做好分表字段的設計和預留。


KV模型數據庫(Key-Value-stores)

Redis是開源的Key-Value結構的數據庫。其基於內存,具有高效緩存的性能,同時也支持持久化。Redis主要有兩種持久化方式。一種是RDB,通過指定時間間隔生成數據集的時間點快照,從內存寫入磁盤進行持久化。RDB方式會引起一定程度的數據丟失,但性能好。另外一種是AOF,其寫入機制,有點類似InnoDB的binlog,AOF的文件的命令都是以Redis協議格式保存。這兩種持久化是可以同時存在的,在Redis重啟時,AOF文件會被優先用於恢復數據。因為持久化是可選項,所以也可以禁用Redis持久化。

在實際的場景中,建議保留持久化。比如目前比較流行的解決短信驗證碼的驗證,就可使用Redis。在微服務架構體系中,也可以用Redis處理一些KV數據結構的場景。輕量級的數據存儲方案,也很適合本身強調輕量級方案的微服務思想。

我們在實踐中,是對Redis進行了緩存、持久化,兩個功能特征進行分庫的。

在集成Springboot項目中會使用到spring-boot-starter-data-redis來進行Redis的數據庫連接以及基礎配置、以及spring-data-redis提供的豐富的數據APIOperations。

另外,如果是要求高吞吐量的應用,可以考慮用Memcached來專門做簡單的KV數據結構的緩存。其比較適合大數據量的讀取,但支持的數據結構類型比較單一。


圖形數據庫(Graph Database)

涉及到社交相關的模型數據的存儲,圖形數據庫是一種相交關系型數據庫更高效、更靈活的選擇。圖形數據庫也是Nosql的一種。其和KV不同,存儲的數據主要是數據節點(node),具有指向性的關系(Relationship)以及節點和關系上的屬性(Property)。

如果用Java作為微服務的主開發語言,最好選擇Neo4j。Neo4j是一種基於Java實現的支持ACID的圖形數據庫。其提供了豐富的JavaAPI。在性能方面,圖形數據庫的局部性使遍歷的速度非常快,尤其是大規模深度遍歷。這個是關系型數據庫的多表關聯無法企及的。

下圖是使用Neo4j的WebUI工具展示的一個官方Getting started數據模型示例。示例中的語句MATCH p=()-[r:DIRECTED]->() RETURN p LIMIT 25是Neo4j提供的查詢語言——Cypher。

技術分享圖片

在項目使用時可以集成SpringData的項目Spring Data Neo4j。以及SpringBootStartersspring-boot-starter-data-neo4j


文檔數據庫(Document database)

目前應用的比較廣泛的開源的面向文檔的數據庫可以用Mongodb。Mongo具有高可用、高可伸縮性以及靈活的數據結構存儲,尤其是對於Json數據結構的存儲。比較適合博客、評論等模型的存儲。


搜索技術

在開發的過程中,有時候經常會看到有人寫了很長很繞、很難維護的多表查詢SQL,或者是各種多表關聯的子查詢語句。對於某一領域模型,當這種場景多的時候,就該考慮接入一套搜索方案了。不要什麽都用SQL去解決,尤其是查詢的場景。慢查詢語句的問題有時候甚至會拖垮DB,如果DB的監控體系做的不到位,可能問題也很難排查。

Elasticsearch是一個基於Apache Lucene實現的開源的實時分布式搜索和分析引擎。Springboot的項目也提供了集成方式: spring-boot-starter-data-elasticsearch以及spring-data-elasticsearch。

對於搜索集群的搭建,可以使用Docker。具體搭建方法可以參考用Docker搭建Elasticsearch集群,對於Springboot項目的集成可以參考在Springboot微服務中集成搜索服務。至今,最新版本的SpringDataElasticsearch已經支持到了5.x版本的ES,可以解決很多2.x版本的痛點了。

如果是小規模的搜索集群,可以用三臺低配置的機器,然後用ES的Docker進項進行搭建。也可以使用一些商業版的PaaS服務。如何選擇還是要根據團隊和業務的規模、場景來看。

目前除了ES,使用比較廣泛的開源搜索引擎還有Solr,Solr也基於Lucene,且專註在文本搜索。而ES的文本搜索確實不如Solr,ES主要專註於對分布式的支持,並且內置了服務發現組件Zen來維護集群狀態,相對Solr(需要借助類似Zookeeper實現分布式)部署也更加輕量級。ES除了分析查詢,還可以集成日誌收集以及做分析處理。


消息隊列

消息隊列如前篇所述,可以作為很好的微服務解耦通信方式。在分布式集群的場景下,對於分布式下的最終一致性也可以提供技術基礎保障。並且消息隊列也可以用來處理流量削鋒。

消息隊列的對比在此不再贅述。目前公司使用的是阿裏雲的ONS。因為使用消息隊列還是考慮用在對高可用以及易於管理、監控上的要求,所以選擇了安全可靠的消息隊列平臺。


安全技術

安全性是做架構需要考慮的基礎。互聯網的環境復雜,保護好服務的安全,也是對用戶的基本承諾。安全技術涉及到的範圍比較廣,本文選幾個常見問題以及常用方式來簡單介紹下。


服務實例安全

分布式集群本身就是對於服務實例安全的一種保障。一臺服務器或者某一個服務實例出現問題的時候,負載均衡可以將請求轉發到其他可用的服務實例。但很多企業是自建機房,而且是單機房的,這種布局其實比較危險。因為服務器的備份容災也得不到完整的保障。最怕的就是數據庫也是在同一機房,主備全都在一起。不單是安全性得不到很高的保障,平常的運維花銷也會比較大。而且需要註意配置防火墻安全策略。

如果可以,盡量使用一些高可用、高可伸縮的穩定性IaaS平臺。


網絡安全

1. 預防網絡攻擊

目前主要的網絡攻擊有一下幾種:

  • SQL註入:根據不同的持久層框架,應對策略不同。如果使用JPA,則只要遵循JPA的規範,基本不用擔心。

  • XSS攻擊:做好參數的轉義處理和校驗。具體參考XSS預防

  • CSRF攻擊:做好Http的Header信息的Token、Refer驗證。具體參考CSRF預防

  • DDOS攻擊:大流量的DDoS攻擊,一般是采用高防IP。也可以接入一些雲計算平臺的高防IP。

以上只是列舉了幾種常見的攻擊,想要深入了解的可以多看看REST安全防範表。在網絡安全領域,一般很容易被初創企業忽視,如果沒有一個運維安全團隊,最好使用類似阿裏雲-雲盾之類的產品。省心省成本。


2. 使用安全協議

這個不用多說,無論是對於使用Restful API的微服務通信,還是使用的CDN或者使用的DNS服務。涉及到Http協議的,建議都統一使用Https。無論是什麽規模的應用,都要防範流量劫持,否則將會給用戶帶來很不好的使用體驗。


3. 鑒權

關於微服務的鑒權前面API Gateway已經有介紹。除了微服務本身之外,我們使用的一些如Mysql,Redis,Elasticsearch,Eureka等服務,也需要設置好鑒權,並且盡量通過內網訪問。不要對外暴露過多的端口。對於微服務的API Gateway,除了鑒權,最好前端通過Nginx反向代理來請求API層。


日誌采集、監控

基於容器技術的微服務的監控體系面臨著更復雜的網絡、服務環境。日誌采集、監控如何能對微服務減少侵入性、對開發者更透明,一直是很多微服務的DevOps在不斷思考和實踐的。

1. 微服務日誌的采集

微服務的API層的監控,需要從API Gateway到每個微服務的調用路徑的跟蹤,采集以及分析。使用Rest API的話,為了對所有請求進行采集,可以使用Spring Web的OncePerRequestFilter對所有請求進行攔截,在采集日誌的時候,也最好對請求的rt進行記錄。

除了記錄access,request等信息,還需要對API調用進行請求跟蹤。如果單純記錄每個服務以及Gateway的日誌,那麽當Gateway Log出現異常的時候,就不知道其具體是微服務的哪個容器實例出現了問題。如果容器達到一定數量,也不可能排查所有容器以及服務實例的日誌。比較簡單的解決方式就是對log信息都append一段含有容器信息的、唯一可標識的Trace串。

日誌采集之後,還需要對其進行分析。如果使用E.L.K的技術體系,就可以靈活運用Elasticsearch的實時分布式特性。Logstash可以進行日誌進行收集、分析,並將數據同步到Elasticsearch。Kibana結合Logstash和ElasticSearch,提供良好的便於日誌分析的WebUI,增強日誌數據的可視化管理。

對於數據量大的日誌的采集,為了提升采集性能,需要使用上文提到的消息隊列。優化後的架構如下:

技術分享圖片

2. 基礎服務的調用日誌采集

通過對微服務的所有Rest API的日誌采集、分析可以監控請求信息。

在服務內部,對於中間件、基礎設施(包括Redis,Mysql,Elasticsearch等)調用的性能的日誌采集和分析也是必要的。

對於中間件服務的日誌采集,我們目前可以通過動態代理的方式,對於服務調用的如cache、repository(包括搜索和DB)的基礎方法,進行攔截及回調日誌記錄方法。具體的實現方式可以采用字節碼生成框架ASM,關於方法的邏輯註入,可以參考之前寫的一篇ASM(四) 利用Method 組件動態註入方法邏輯,如果覺得ASM代碼不太好維護,也可以使用相對API友好的Cglib。

架構五要素:

最後,結合架構核心的五要素來回顧下我們在搭建Docker微服務架構使用的技術體系:

  1. 高性能

    消息隊列、RxJava異步並發、分布式緩存、本地緩存、Http的Etag緩存、使用Elasticsearch優化查詢、CDN等等。

  2. 可用性

    容器服務集群、RxJava的熔斷處理、服務降級、消息的冪等處理、超時機制、重試機制、分布式最終一致性等等。

  3. 伸縮性

    服務器集群的伸縮、容器編排Kubernetes、數據庫分庫分表、Nosql的線性伸縮、搜索集群的可伸縮等等。

  4. 擴展性

    基於Docker的微服務本身就是為了擴展性而生!

  5. 安全性

    JPA/Hibernate,SpringSecurity、高防IP、日誌監控、Https、Nginx反向代理、HTTP/2.0等等。


小結

對於服務集群的解決方案,其實無論是微服務架構或者SOA架構,都是比較通用的。只是對於一些中間件集群的搭建,可以使用Docker。一句Docker ps就可以很方便查詢運行的服務信息,並且升級基礎服務也很方便。

對於優秀的集群架構設計的追求是永無止境的。在跟很多創業公司的技術朋友們接觸下來,大家都是比較偏向於快速搭建以及開發、發布服務。然而一方面也顧慮微服務的架構會比較復雜,殺雞用牛刀。但是微服務本身就是一種敏捷模式的優秀實踐。這些朋友往往會在業務飛速發展的時候面臨一個困擾,就是服務拆分,數據庫的分庫分表、通過消息去解耦像面條一樣的同步代碼,想要優化性能但是無從下手的尷尬。

本文主要是對於Docker的微服務實踐進行技術方案選型以及介紹。不同的業務、團隊可能會適合不通過的架構體系和技術方案。

作為架構師應該結合公司近期、長期的戰略規劃,進行長遠的布局。最起碼基礎的架構也是需要能支撐3年發展,期間可以不斷引入新的技術並進行服務升級和持續的代碼層重構。

也許一個架構師從0開始搭建一整套體系並不需要花費多久時間,最需要其進行的就是不斷在團隊推行Domain-Driven Design。並且使團隊一起遵循Clean Code,進行敏捷開發OvO。

基於 Docker 的微服務架構實踐