k8s 簡介
Kubernetes 是一個跨主機叢集的 開源的容器排程平臺,它可以自動化應用容器的部署、擴充套件和操作 , 提供以容器為中心的基礎架構。(官方文件第一行)
1.1 Kubernetes服務於微服務
每個微服務都是獨立的程序,通過定義好的介面(restful api ,amqp)互相呼叫

1.1.1 微服務常見的問題
- 不同服務依賴庫導致的混亂,需要將每個服務獨立開(通過docker改善)
- 服務註冊,服務發現:需要動態的更新當前服務。
- 服務編排(即docker容器的編排,docker自身很難解決叢集部署的問題):哪些服務需要在哪些宿主機上啟動
1.2 曾經主流的容器編排工具
- Docker Swarm
- Mesos + marathon
- Kubernetes
2.Kubernetes的主要組成

- master 可以簡單的理解為控制中心
- etcd:分散式k-v資料庫,根據配置選擇是cp還是ap, k8s只有api server 和etcd通訊, 其他元件均和api server 通訊
- api server:可以理解為etcd的前置過濾器,換一個視角,它和etcd類似於mysql和檔案系統。
- controller manager: 核心,負責將現在的狀態調整為etcd上應該的狀態,包含了所有的實現邏輯
- scheduler: 簡單點說就是給一個pod找一個node。
- slave 可以簡單的理解為worker
- kubelet: 負責和master連線,註冊node, listen-watch 本node的任務等
- kube-proxy: 用於k8s service物件,之後介紹。
- 容器執行時: 除了docker k8s還支援 rkt等容器實現
- add-on 一些k8s不提供的功能,需要外掛實現
- DNS(服務註冊發現)
- CNI(容器網路介面實現, ex:fannel)
k8s叢集的執行時的大致結構

multiple containers run together說的就是pod
3.Kubernetes的常用的幾個物件
1.pods
- pods是k8s管理的最小物件,是一組共享uts, network, ipc namespace的容器(也支援共享pid,預設不開啟)
- 每個pod 會有一個 infrastructure 容器,volumne, network其實都是共用的這個容器的network和volumne
- pod使邏輯上緊密相關的程序適當的隔離,保持一定的相關:
- 一些程序必須在相同而主機上執行
- 擴容需要保持一致
- 等等

例項配置檔案
[lukou@khand ~]$ kubectl get po redis-master-jvxld -o yaml apiVersion: v1 kind: Pod metadata: annotations: kubernetes.io/created-by: | {"kind":"SerializedReference","apiVersion":"v1","reference":{"kind":"ReplicationController","namespace":"default","name":"redis-master","uid":"61a3a1c6-43a9-11e9-9f58-00163f007932","apiVersion":"v1","resourceVersion":"510225"}} creationTimestamp: 2019-03-11T02:57:17Z generateName: redis-master- labels: name: redis-master name: redis-master-jvxld namespace: default ownerReferences: - apiVersion: v1 controller: true kind: ReplicationController name: redis-master uid: 61a3a1c6-43a9-11e9-9f58-00163f007932 resourceVersion: "510247" selfLink: /api/v1/namespaces/default/pods/redis-master-jvxld uid: 61a49472-43a9-11e9-9f58-00163f007932 spec: containers: - image: kubeguide/redis-master imagePullPolicy: Always name: master ports: - containerPort: 6379 protocol: TCP resources: {} terminationMessagePath: /dev/termination-log volumeMounts: - mountPath: /var/run/secrets/kubernetes.io/serviceaccount name: default-token-m6g3l readOnly: true livenessProbe: httpGet: path: / port: 8080 dnsPolicy: ClusterFirst nodeName: 127.0.0.1 restartPolicy: Always securityContext: {} serviceAccount: default serviceAccountName: default terminationGracePeriodSeconds: 30 volumes: - name: default-token-m6g3l secret: defaultMode: 420 secretName: default-token-m6g3l 複製程式碼
2.rc和rs等controller(管理pods)
- 確保pod健康
- 確定並動態調整pod 在叢集中中執行的數量,並在pod失敗後重新排程新的pod啟動
- 類似crontab,進行一些定時任務
除了rc, rs之外,還有deamonSet, job, cronjob等controller
例項配置檔案
apiVersion: v1 kind: ReplicationController metadata: name: kubia spec: replicas: 3 selector: app: kubia template: metadata: labels: app: kubia spec: containers: - name: kubia image: luksa/kubia ports: - containerPort: 8080 複製程式碼
rc管理pods,但是pods並不是通過rc啟動的, rc將pods的配置檔案同步給api server, Scheduler分配node, Kubelet跑node.
3.service
- pod是非持久的,會不斷的重啟,導致pod的ip是隨時變化的,同時pod的數量會是動態變化的,客戶端很難和pod直接通訊,service是用來解決這一問題的
- service 為提供同一服務的pods 提供了統一的入口
- service 的生命週期內其繫結ip是不會變化的

例項配置檔案
apiVersion: v1 kind: Service metadata: name: redis-master labels: name: redis-master spec: ports: - port: 6379 targetPort: 6379 selector: name: redis-master 複製程式碼
[lukou@khand ~]$ kubectl get svc NAMECLUSTER-IPEXTERNAL-IPPORT(S)AGE kubernetes10.254.0.1<none>443/TCP26d redis-master10.254.61.141<none>6379/TCP21d 複製程式碼
通過環境變數或者DNS 可以查詢service 的ip和埠
- 新建的pod會將所有的已經建立service的 ip和port存入環境變數
[lukou@khand ~]$ kubectl get pods NAMEREADYSTATUSRESTARTSAGE redis-master-jvxld1/1Running021d [lukou@khand ~]$ kubectl exec redis-master-jvxld env PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin HOSTNAME=redis-master-jvxld KUBERNETES_SERVICE_PORT_HTTPS=443 KUBERNETES_PORT=tcp://10.254.0.1:443 KUBERNETES_PORT_443_TCP=tcp://10.254.0.1:443 KUBERNETES_PORT_443_TCP_PROTO=tcp KUBERNETES_PORT_443_TCP_PORT=443 KUBERNETES_PORT_443_TCP_ADDR=10.254.0.1 KUBERNETES_SERVICE_HOST=10.254.0.1 KUBERNETES_SERVICE_PORT=443 HOME=/root [lukou@khand ~]$ kubectl delete po --all pod "redis-master-jvxld" deleted [lukou@khand ~]$ kubectl get pods NAMEREADYSTATUSRESTARTSAGE redis-master-b7mkh0/1ContainerCreating06s [lukou@khand ~]$ ^C [lukou@khand ~]$ kubectl get pods NAMEREADYSTATUSRESTARTSAGE redis-master-b7mkh1/1Running01m [lukou@khand ~]$ kubectl exec redis-master-b7mkh env PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin HOSTNAME=redis-master-b7mkh KUBERNETES_PORT=tcp://10.254.0.1:443 KUBERNETES_PORT_443_TCP=tcp://10.254.0.1:443 KUBERNETES_PORT_443_TCP_ADDR=10.254.0.1 REDIS_MASTER_SERVICE_PORT=6379 KUBERNETES_SERVICE_PORT=443 REDIS_MASTER_PORT_6379_TCP_PORT=6379 KUBERNETES_SERVICE_HOST=10.254.0.1 REDIS_MASTER_SERVICE_HOST=10.254.61.141 REDIS_MASTER_PORT=tcp://10.254.61.141:6379 REDIS_MASTER_PORT_6379_TCP=tcp://10.254.61.141:6379 KUBERNETES_PORT_443_TCP_PROTO=tcp KUBERNETES_SERVICE_PORT_HTTPS=443 KUBERNETES_PORT_443_TCP_PORT=443 REDIS_MASTER_PORT_6379_TCP_PROTO=tcp REDIS_MASTER_PORT_6379_TCP_ADDR=10.254.61.141 HOME=/root 複製程式碼
- 通過dns服務,註冊cluster域名,類似
redis-master.default
之前建立的service只有一個叢集內的固定ip
[lukou@khand ~]$ kubectl get svc NAMECLUSTER-IPEXTERNAL-IPPORT(S)AGE kubernetes10.254.0.1<none>443/TCP26d redis-master10.254.61.141<none>6379/TCP21d 複製程式碼
如果需要在叢集外訪問有三種方法
- 預設的service 的型別是 'ClusterIP',修改為NodePort即可
apiVersion: v1 kind: Service metadata: name: redis-master labels: name: redis-master spec: type: NodePort ports: - port: 6379 targetPort: 6379 nodePort: 30123// The range of valid ports is 30000-32767 selector: name: redis-master 複製程式碼
[lukou@khand ~]$ kubectl get svc NAMECLUSTER-IPEXTERNAL-IPPORT(S)AGE kubernetes10.254.0.1<none>443/TCP26d redis-master10.254.61.141<nodes>6379:30123/TCP21d 複製程式碼
- 建立一個loadbalance
- 建立Ingress resource
4.deployment
- 簡單地說deployment是rc的上一層,用來管理rc的
- 主要功能是管理pod執行的版本
apiVersion: apps/v1beta1 kind: Deployment metadata: name: kubia spec: replicas: 3 template: metadata: name: kubia labels: app: kubia spec: containers: - image: luksa/kubia:v1 name: nodejs strategy: rollingUpdate: maxSurge: 1 maxUnavailable: 0 type: RollingUpdate 複製程式碼
升級的cmd kubectl set image deployment kubia nodejs=luksa/kubia:v2
大致實現的邏輯是,deployment不斷的降低舊版本rc的 replicas, 增加新版本的replicas

就像rc並不是直接控制pod一樣,deployment也是類似,deployment宣告式的通知api server 需要升級後的結果,具體升級的邏輯由development controller去處理
