1. 程式人生 > >Rio手把手教學:如何打造容器化應用程式的一站式部署體驗

Rio手把手教學:如何打造容器化應用程式的一站式部署體驗

11月19日,業界應用最為廣泛的Kubernetes管理平臺建立者Rancher Labs(以下簡稱Rancher)宣佈Rio釋出了beta版本,這是基於Kubernetes的應用程式部署引擎。它於今年5月份推出,現在最新的版本是v0.6.0。Rio結合了多種雲原生技術,從而簡化了將程式碼從測試環境釋出到生產環境的流程,同時保證了強大而安全的程式碼體驗。

什麼是Rio?

下圖是Rio的架構:

Rio採用了諸如Kubernetes、knative、linkerd、cert-manager、buildkit以及gloo等技術,並將它們結合起來為使用者提供一個完整的應用程式部署環境。

Rio具有以下功能:

  1. 從原始碼構建程式碼,並將其部署到Kubernetes叢集

  2. 自動為應用程式建立DNS記錄,並使用Let’s Encrypt的TLS證書保護這些端點

  3. 基於QPS以及工作負載的指標自動擴縮容

  4. 支援金絲雀釋出、藍綠髮布以及A/B部署

  5. 支援通過服務網格路由流量

  6. 支援縮容至零的serverless工作負載

  7. Git觸發的部署

Rancher的產品生態

Rio屬於Rancher整套產品生態的一部分,這些產品支援從作業系統到應用程式的應用程式部署和容器運維。當Rio和諸如Rancher 2.3、k3s和RKE等產品結合使用時,企業可以獲得完整的部署和管理應用程式及容器的體驗。

深入瞭解Rio

要了解Rio如何實現上述功能,我們來深入瞭解一些概念以及工作原理。

安裝Rio

前期準備

  • Kubernetes版本在1.15以上的Kubernetes叢集

  • 為叢集配置的kubeconfig(即上下文是你希望將Rio安裝到的叢集)

  • 在$PATH中安裝的Rio CLI工具,可參閱以下連結,瞭解如何安裝CLI:
    https://github.com/rancher/rio/blob/master/README.md

安裝

使用安裝好的Rio CLI工具,呼叫rio install。你可能需要考慮以下情況:

ip-address:節點的IP地址的逗號分隔列表。你可以在以下情況使用:

  • 你不使用(或不能使用)layer-4的負載均衡器

  • 你的節點IP不是你希望流量到達的IP地址(例如,你使用有公共IP的EC2例項)

服 務

在Rio中,service是一個基本的執行單位。從Git倉庫或容器映象例項化之後,一個service由單個容器以及服務網格的關聯sidecar組成(預設啟用)。例如,執行使用Golang構建的一個簡單的“hello world”應用程式。

rio run https://github.com/ebauman/rio-demo

或者執行容器映象版本:

rio run ebauman/demo-rio:v1

還有其他選項也可以傳遞給rio run,如需要公開的任意埠(-p 80:8080/http),或者自動擴縮的配置(--scale 1-10)。你可以通過這一命令rio help run,檢視所有可傳遞的選項。

想要檢視你正在執行的服務,請執行rio ps

$ rio ps
NAME            IMAGE                               ENDPOINT
demo-service    default-demo-service-4dqdw:61825    https://demo-service...

每次你執行一個新的服務,Rio將會為這一服務生成一個全域性性的端點:

$ rio endpoints
NAME           ENDPOINTS
demo-service   https://demo-service-default.op0kj0.on-rio.io:30282

請注意,此端點不包括版本——它指向由一個common name標識的服務,並且流量根據服務的權重進行路由。

自動DNS&TLS

預設情況下,所有Rio叢集都將為自己建立一個on-rio.io主機名,並以隨機字串開頭(如lkjsdf.on-rio.io)。該域名成為萬用字元域名,它的記錄解析到叢集的閘道器。如果使用NodePort服務,則該閘道器可以是layer-4負載均衡器,或者是節點本身。

除了建立這個萬用字元域名,Rio還會使用Let’s Encrypt為這個域名生成一個萬用字元證書。這會允許自動加密任何HTTP工作負載,而無需使用者進行配置。要啟動此功能,請傳遞-p引數,將http指定為協議,例如:

rio run -p 80:8080/http ...

自動擴縮容

Rio可以根據每秒所查詢到的指標自動擴縮服務。為了啟用這一特性,傳遞--scale 1-10作為引數到rio run,例如:

rio run -p 80:8080/http -n demo-service --scale 1-10 ebauman/rio-demo:v1

執行這個命令將會構建ebauman/rio-demo並且部署它。如果我們使用一個工具來新增負載到端點,我們就能夠觀察到自動擴縮容。為了證明這一點,我們需要使用HTTP端點(而不是HTTPS),因為我們使用的工具不支援TLS:

$ rio inspect demo-service
<snipped>
endpoints:
- https://demo-service-v0-default.op0kj0.on-rio.io:30282
- http://demo-service-v0-default.op0kj0.on-rio.io:31976
<snipped>

rio inspect除了端點之外還會顯示其他資訊,但我們目前所需要的是端點資訊。使用HTTP端點以及HTTP基準測試工具rakyll / hey,我們可以新增綜合負載:

hey -n 10000 http://demo-service-v0-default.op0kj0.on-rio.io:31976

這將會發送10000個請求到HTTP端點,Rio將會提高QPS並適當擴大規模,執行另一個rio ps將會展示已經擴大的規模:

$ rio ps
NAME            ...     SCALE       WEIGHT
demo-service    ...     2/5 (40%)   100%

分階段釋出、金絲雀部署以及權重

注意

對於每個服務,都會建立一個全域性端點,該端點將根據基礎服務的權重路由流量。

Rio可以先交付新的服務版本,然後再推廣到生產環境。分階段釋出一個新的版本十分簡單:

rio stage --image ebauman/rio-demo:v2 demo-service v2

這一命令使用版本v2,分階段釋出demo-service的新版本,並且使用容器映象ebauman/rio-demo:v2。我們通過執行rio ps這一命令,可以看到新階段的釋出:

$ rio ps
NAME                IMAGE                   ENDPOINT                    WEIGHT
demo-service@v2     ebauman/rio-demo:v2     https://demo-service-v2...  0%
demo-service        ebauman/rio-demo:v1     https://demo-service-v0...  100%

請注意,新服務的端點具有v2的新增功能,因此即使權重設定為0%,訪問此端點仍將帶你進入服務的v2。這可以讓你能夠在向其傳送流量之前驗證服務的執行情況。

說到傳送流量:

$ rio weight demo-service@v2=5%
$ rio ps
NAME                IMAGE                   ENDPOINT                    WEIGHT
demo-service@v2     ebauman/rio-demo:v2     https://demo-service-v2...  5%
demo-service        ebauman/rio-demo:v1     https://demo-service-v0...  95%

使用rio weight命令,我們現在將傳送我們5%的流量(從全域性的服務端點)到新版本。當我們覺得demo-service的v2效能感到滿意之後,我們可以將其提升到100%:

$ rio promote --duration 60s demo-service@v2
demo-service@v2 promoted

超過60秒之後,我們的demo-service@v2服務將會逐漸提升到接收100%的流量。在這一過程中任意端點上,我們可以執行rio ps,並且檢視程序:

$ rio ps
NAME                IMAGE                   ENDPOINT                    WEIGHT
demo-service@v2     ebauman/rio-demo:v2     https://demo-service-v2...  34%
demo-service        ebauman/rio-demo:v1     https://demo-service-v0...  66%

路由(Routing)

Rio可以根據主機名、路徑、方法、標頭和cookie的任意組合將流量路由到端點。Rio還支援映象流量、注入故障,配置retry邏輯和超時。

建立一個路由器

為了開始制定路由決策,我們必須首先建立一個路由器。路由器代表一個主機名和一組規則,這些規則確定傳送到主機名的流量如何在Rio叢集內進行路由。你想要要定義路由器,需要執行rio router add。例如,要建立一個在預設測試時接收流量並將其傳送到demo-service的路由器,請使用以下命令:

rio route add testing to demo-service

這將建立以下路由器:

$ rio routers
NAME             URL                            OPTS    ACTION      TARGET
router/testing   https://testing-default.0pjk...        to          demo-service,port=80

傳送到https://testing-default...的流量將通過埠80轉發到demo-service。

請注意,此處建立的路由為testing-default.

rio -n <namespace> route add ...

基於路徑的路由

為了定義一個基於路徑的路由,當呼叫rio route add時,指定一個主機名加上一個路徑。這可以是新路由器,也可以是現有路由器。

$ rio route add testing/old to demo-service@v1

以上命令可以建立一個基於路徑的路由,它會在https://testing-default.

標頭和基於方法的路由

Rio支援基於HTTP標頭和HTTP verbs的值做出的路由策略。如果你想要建立基於特定標頭路由的規則,請在rio route add命令中指定標頭:

$ rio route add --header X-Header=SomeValue testing to demo-service

以上命令將建立一個路由規則,它可以使用一個X-Header的HTTP標頭和SomeValue的值將流量轉發到demo-service。類似地,你可以為HTTP方法定義規則:

$ rio route add --method POST testing to demo-service

故障注入

Rio路由有一項有趣的功能是能夠將故障注入響應中。通過定義故障路由規則,你可以設定具有指定延遲和HTTP程式碼的失敗流量百分比:

$ rio route add --fault-httpcode 502 --fault-delay-milli-seconds 1000 --fault-percentage 75 testing to demo-service

其他路由選項

Rio支援按照權重分配流量、為失敗的請求重試邏輯、重定向到其他服務、定義超時以及新增重寫規則。要檢視這些選項,請參閱以下連結:

https://github.com/rancher/rio

自動構建

將git倉庫傳遞給rio run將指示Rio在提交到受監控的branch(預設值:master)之後構建程式碼。對於Github倉庫,你可以通過Github webhooks啟動此功能。對於任何其他git repo,或者你不想使用webhooks,Rio都會提供一項“gitwatcher”服務,該服務會定期檢查您的倉庫中是否有更改。

Rio還可以根據受監控的branch的拉取請求構建程式碼。如果你想要進行配置,請將--build-pr傳遞到rio run。還有其他配置這一功能的選項,包括傳遞Dockerfile的名稱、自定義構建的映象名稱以及將映象推送到指定的映象倉庫。

堆疊和Riofile

Rio使用稱為Riofile的docker-compose-style manifest定義資源

configs:
  conf:
    index.html: |-
      <!DOCTYPE html>
      <html>
      <body>

      <h1>Hello World</h1>

      </body>
      </html>
services:
  nginx:
    image: nginx
    ports:
    - 80/http
    configs:
    - conf/index.html:/usr/share/nginx/html/index.html

Riofile定義了一個簡單的nginx Hello World網頁所有必要的元件。通過rio up部署它,會建立一個Stack(堆疊),它是Riofile定義的資源的集合。

Riofile具有許多功能,例如觀察Git庫中的更改以及使用Golang模板進行模板化。

其他Rio元件

Rio還有許多功能,例如configs、secrets以及基於角色訪問控制(RBAC)。詳情可參閱:

https://rio.io/

Rio視覺化

Rio Dashboard

Rio的beta版本包括了一個全新的儀表盤,使得Rio元件視覺化。要訪問此儀表盤,請執行命令:rio dashboard。在有GUI和預設瀏覽器的作業系統上,Rio將自動開啟瀏覽器並載入儀表盤。

你可以使用儀表盤來建立和編輯堆疊、服務、路由等。此外,可以直接檢視和編輯用於各種元件技術(Linkerd、gloo等)的物件,儘管不建議這樣做。儀表盤目前處於開發的早期階段,因此某些功能的視覺化(如自動縮放和服務網格)尚不可用。

Linkerd

作為Rio的預設服務網格,Linked附帶了一個儀表盤作為產品的一部分。該儀表盤可以通過執行rio linkerd來使用,它將代理本地本地主機流量到linkerd儀表盤(不會在外部公開)。與Rio儀表盤類似,有GUI和預設瀏覽器的作業系統上,Rio將自動開啟瀏覽器並載入儀表盤:

Linkerd儀表盤顯示了Rio叢集的網格配置、流量和網格元件。Linkerd提供了Rio路由的某些功能元件,因此這些配置可能會顯示在此儀表盤上。還有一些工具可用於測試和除錯網格配置和流量。

結 論

Rio為使用者提供許多功能,是一款強大的應用程式部署引擎。這些元件可以在部署應用程式時為開發人員提供強大的功能,使流程穩定而安全,同時輕鬆又有趣。在Rancher產品生態中,Rio提供了企業部署和管理應用程式和容器的強大功能。

如果你想了解Rio的更多資訊,歡迎訪問Rio主頁或Github主頁:

https://rio.io

https://github.com/rancher/