1. 程式人生 > >Kubernetes之(十七)網絡模型和網絡策略

Kubernetes之(十七)網絡模型和網絡策略

bin rip 通信 二進制文件 back rod 上進 安全性 nod

目錄

  • Kubernetes之(十七)網絡模型和網絡策略
    • Kubernetes網絡模型和CNI插件
      • Docker網絡模型
    • Kubernetes網絡模型
    • Flannel網絡插件
      • Direct routing模式配置
      • Host-gw後端
    • 網絡策略
      • 部署Canal提供網絡策略功能
      • 配置策略
      • Ingress管控
      • Egress管控
      • 隔離名稱空間

Kubernetes之(十七)網絡模型和網絡策略

Kubernetes網絡模型和CNI插件

在Kubernetes中設計了一種網絡模型,要求無論容器運行在集群中的哪個節點,所有容器都能通過一個扁平的網絡平面進行通信,即在同一IP網絡中。需要註意的是:在K8S集群中,IP地址分配是以Pod對象為單位,而非容器,同一Pod內的所有容器共享同一網絡名稱空間。

Docker網絡模型

Docker容器的原生網絡模型主要有3種:Bridge(橋接)、Host(主機)、none。

  • Bridge:借助虛擬網橋設備為容器建立網絡連接。
  • Host:設置容器直接共享當前節點主機的網絡名稱空間。
  • none:多個容器共享同一個網絡名稱空間。
[[email protected] ~]# docker network ls
NETWORK ID          NAME                DRIVER              SCOPE
ac364a575cb8        bridge              bridge              local
e3bdb1c29df6        host                host                local
4161accaf430        none                null                local
#none網絡,在該網絡下的容器僅有lo網卡,屬於封閉式網絡,通常用於對安全性要求較高並且不需要聯網的應用
#host網絡,共享宿主機的網絡名稱空間,容器網絡配置和host一致,但是存在端口沖突的問題
#bridge網絡,Docker安裝完成時會創建一個名為docker0的linux bridge,不指定網絡時,創建的網絡默認為橋接網絡,都會橋接到docker0上。

橋接式網絡是目前較為流行和默認的解決方案。但是這種方案的弊端是無法跨主機通信的,僅能在宿主機本地進行,而解決該問題的方法就是NAT。所有接入到該橋接設備上的容器都會被NAT隱藏,它們發往Docker主機外部的所有流量都會經過源地址轉換後發出,並且默認是無法直接接受節點之外的其他主機發來的請求。當需要接入Docker主機外部流量,就需要進行目標地址轉換甚至端口轉換將其暴露在外部網絡當中。如下圖:
技術分享圖片
容器內的屬於私有地址,需要在左側的主機上的eth0上進行源地址轉換,而右側的地址需要被訪問,就需要將eth0的地址進行NAT轉換。SNAT---->DNAT
這樣的通信方式會比較麻煩,從而需要借助第三方的網絡插件實現這樣的跨主機通信的網絡策略。
容器內的屬於私有地址,需要在左側的主機上的eth0上進行源地址轉換,而右側的地址需要被訪問,就需要將eth0的地址進行NAT轉換。SNAT---->DNAT
這樣的通信方式會比較麻煩,從而需要借助第三方的網絡插件實現這樣的跨主機通信的網絡策略。

Kubernetes網絡模型

我們知道的是,在K8S上的網絡通信包含以下幾類:

  • 容器間的通信:同一個Pod內的多個容器間的通信,它們之間通過lo網卡進行通信。
  • Pod之間的通信:通過Pod IP地址進行通信。
  • Pod和Service之間的通信:Pod IP地址和Service IP進行通信,兩者並不屬於同一網絡,實現方式是通過IPVS或iptables規則轉發。
  • Service和集群外部客戶端的通信,實現方式:Ingress、NodePort、Loadbalance

K8S網絡的實現不是集群內部自己實現,而是依賴於第三方網絡插件----CNI(Container Network Interface)
flannel、calico、canel等是目前比較流行的第三方網絡插件。

這三種的網絡插件需要實現Pod網絡方案的方式通常有以下幾種:
虛擬網橋、多路復用(MacVLAN)、硬件交換(SR-IOV)

K8S支持CNI插件進行編排網絡,以實現Pod和集群網絡管理功能的自動化。每次Pod被初始化或刪除,kubelet都會調用默認的CNI插件去創建一個虛擬設備接口附加到相關的底層網絡,為Pod去配置IP地址、路由信息並映射到Pod對象的網絡名稱空間。

在配置Pod網絡時,kubelet會在默認的/etc/cni/net.d/目錄中去查找CNI JSON配置文件,然後通過type屬性到/opt/cni/bin中查找相關的插件二進制文件,如下面的"portmap"。然後CNI插件調用IPAM插件(IP地址管理插件)來配置每個接口的IP地址:

[[email protected] ~]#  cat /etc/cni/net.d/10-flannel.conflist 
{
  "name": "cbr0",
  "plugins": [
    {
      "type": "flannel",
      "delegate": {
        "hairpinMode": true,
        "isDefaultGateway": true
      }
    },
    {
      "type": "portmap",
      "capabilities": {
        "portMappings": true
      }
    }
  ]
}

? CNI主要是定義容器網絡模型規範,鏈接容器管理系統和網絡插件,兩者主要通過上面的JSON格式文件進行通信,實現容器的網絡功能。CNI的主要核心是:在創建容器時,先創建好網絡名稱空間(netns),然後調用CNI插件為這個netns配置網絡,最後在啟動容器內的進程
常見的CNI網絡插件包含以下幾種:

  • Flannel:為Kubernetes提供疊加網絡的網絡插件,基於TUN/TAP隧道技術,使用UDP封裝IP報文進行創建疊 加網絡,借助etcd維護網絡的分配情況,缺點:無法支持網絡策略訪問控制。
  • Calico:基於BGP的三層網絡插件,也支持網絡策略進而實現網絡的訪問控制;它在每臺主機上都運行一個虛擬路由,利用Linux內核轉發網絡數據包,並借助iptables實現防火墻功能。實際上Calico最後的實現就是將每臺主機都變成了一臺路由器,將各個網絡進行連接起來,實現跨主機通信的功能。
  • Canal:由Flannel和Calico聯合發布的一個統一網絡插件,提供CNI網絡插件,並支持網絡策略實現。
  • 其他的還包括Weave Net、Contiv、OpenContrail、Romana、NSX-T、kube-router等等。而Flannel和Calico是目前最流行的選擇方案。

Flannel網絡插件

在各節點上的Docker主機在docker0上默認使用同一個子網,不同節點的容器都有可能會獲取到相同的地址,那麽在跨節點通信時就會出現地址沖突的問題。並且在多個節點上的docker0使用不同的子網,也會因為沒有準確的路由信息導致無法準確送達報文。
而為了解決這一問題,Flannel的解決辦法是,預留一個使用網絡,如10.244.0.0/16,然後自動為每個節點的Docker容器引擎分配一個子網,如10.244.1.0/24和10.244.2.0/24,並將分配信息保存在etcd持久存儲。
第二個問題的解決,Flannel是采用不同類型的後端網絡模型進行處理。其後端的類型有以下幾種:

  • VxLAN:使用內核中的VxLAN模塊進行封裝報文。也是flannel推薦的方式.
  • host-gw:即Host GateWay,通過在節點上創建目標容器地址的路由直接完成報文轉發,要求各節點必須在同一個2層網絡,對報文轉發性能要求較高的場景使用。
  • UDP:使用普通的UDP報文封裝完成隧道轉發。

    VxLAN後端和direct routing

    VxLAN(Virtual extensible Local Area Network)虛擬可擴展局域網,采用MAC in UDP封裝方式,具體的實現方式為:
  1. 將虛擬網絡的數據幀添加到VxLAN首部,封裝在物理網絡的UDP報文中
  2. 以傳統網絡的通信方式傳送該UDP報文
  3. 到達目的主機後,去掉物理網絡報文的頭部信息以及VxLAN首部,並交付給目的終端

跨節點的Pod之間的通信就是以上的一個過程,整個過程中通信雙方對物理網絡是沒有感知的。如下網絡圖:
技術分享圖片

flannel運行後,在各Node宿主機多了一個網絡接口:

#master
[[email protected] ~]# ifconfig flannel.1
flannel.1: flags=4163<UP,BROADCAST,RUNNING,MULTICAST>  mtu 1450
        inet 10.244.0.0  netmask 255.255.255.255  broadcast 0.0.0.0
        inet6 fe80::bc1b:fdff:fece:7506  prefixlen 64  scopeid 0x20<link>
        ether be:1b:fd:ce:75:06  txqueuelen 0  (Ethernet)
        RX packets 1274  bytes 1105723 (1.0 MiB)
        RX errors 0  dropped 0  overruns 0  frame 0
        TX packets 668  bytes 275033 (268.5 KiB)
        TX errors 0  dropped 8 overruns 0  carrier 0  collisions 0
        
#node01
[[email protected] ~]# ifconfig flannel.1
flannel.1: flags=4163<UP,BROADCAST,RUNNING,MULTICAST>  mtu 1450
        inet 10.244.1.0  netmask 255.255.255.255  broadcast 0.0.0.0
        inet6 fe80::10f0:d4ff:fe41:bd69  prefixlen 64  scopeid 0x20<link>
        ether 12:f0:d4:41:bd:69  txqueuelen 0  (Ethernet)
        RX packets 2867  bytes 280059 (273.4 KiB)
        RX errors 0  dropped 0  overruns 0  frame 0
        TX packets 2886  bytes 353550 (345.2 KiB)
        TX errors 0  dropped 8 overruns 0  carrier 0  collisions 0

#node02
[[email protected] ~]# ifconfig flannel.1
flannel.1: flags=4163<UP,BROADCAST,RUNNING,MULTICAST>  mtu 1450
        inet 10.244.2.0  netmask 255.255.255.255  broadcast 0.0.0.0
        inet6 fe80::e8de:4ff:fe2a:cadc  prefixlen 64  scopeid 0x20<link>
        ether ea:de:04:2a:ca:dc  txqueuelen 0  (Ethernet)
        RX packets 3512  bytes 605029 (590.8 KiB)
        RX errors 0  dropped 0  overruns 0  frame 0
        TX packets 3386  bytes 1333288 (1.2 MiB)
        TX errors 0  dropped 8 overruns 0  carrier 0  collisions 0

從上面的結果可以知道 :

  1. flannel默認就是VXLAN模式,即Overlay Network。
  2. flanneld創建了一個flannel.1接口,它是專門用來封裝隧道協議的,默認分給集群的Pod網段為10.244.0.0/16。
  3. flannel給k8s-master節點配置的Pod網絡為10.244.0.0段,給k8s-node01節點配置的Pod網絡為10.244.1.0段,給k8s-node01節點配置的Pod網絡為10.244.2.0段,如果有更多的節點,以此類推。

舉個實際例子

#啟動一個nginx容器,副本為3
[[email protected] manifests]#  kubectl run nginx --image=nginx:1.14-alpine --port=80 --replicas=3

[[email protected] manifests]# kubectl get pods -o wide |grep nginx
nginx-7849c4bbcd-8srph   1/1     Running   0          22s     10.244.1.62   node01   <none>           <none>
nginx-7849c4bbcd-brsrv   1/1     Running   0          22s     10.244.2.74   node02   <none>           <none>
nginx-7849c4bbcd-vjh4w   1/1     Running   0          22s     10.244.2.73   node02   <none>           <none>

查看網絡接口可以發現在各個節點上多了一個虛擬接口cni0,其ip地址為10.244.0.1。它是由flanneld創建的一個虛擬網橋叫cni0,在Pod本地通信使用。 這裏需要註意的是,cni0虛擬網橋,僅作用於本地通信.

[[email protected] ~]# ifconfig cni0
cni0: flags=4163<UP,BROADCAST,RUNNING,MULTICAST>  mtu 1450
        inet 10.244.2.1  netmask 255.255.255.0  broadcast 0.0.0.0
        inet6 fe80::3c3d:dcff:fe84:c3a4  prefixlen 64  scopeid 0x20<link>
        ether 0a:58:0a:f4:02:01  txqueuelen 1000  (Ethernet)
        RX packets 125902  bytes 13768322 (13.1 MiB)
        RX errors 0  dropped 0  overruns 0  frame 0
        TX packets 128191  bytes 12079793 (11.5 MiB)
        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0

容器跨主機是可以正常通信的,那麽容器的跨主機通信是如何實現的呢?????master上查看路由表信息:

[[email protected] manifests]# ip route
default via 10.0.0.2 dev ens33 proto static metric 100 
10.0.0.0/24 dev ens33 proto kernel scope link src 10.0.0.10 metric 100 
10.244.1.0/24 via 10.244.1.0 dev flannel.1 onlink 
10.244.2.0/24 via 10.244.2.0 dev flannel.1 onlink 
172.17.0.0/16 dev docker0 proto kernel scope link src 172.17.0.1 
#在宿主機和容器內都進行ping另外一臺主機上的Pod ip並進行抓包
[[email protected] manifests]# kubectl exec nginx-7849c4bbcd-8srph -it -- /bin/sh  #進入node01的10.244.1.62 IP的pod內

[[email protected] ~]# kubectl exec -it nginx-7849c4bbcd-brsrv -- /bin/sh #另外開終端進入node02的10.244.2.74 IP的pod內

#使用node01的pod  ping10.244.2.74 在node02節點抓包

[[email protected] ~]#  tcpdump -i flannel.1 -nn host 10.244.2.74
tcpdump: verbose output suppressed, use -v or -vv for full protocol decode
listening on flannel.1, link-type EN10MB (Ethernet), capture size 262144 bytes
17:16:06.779840 IP 10.244.1.62 > 10.244.2.74: ICMP echo request, id 2816, seq 66, length 64
17:16:06.779904 IP 10.244.2.74 > 10.244.1.62: ICMP echo reply, id 2816, seq 66, length 64
17:16:07.780045 IP 10.244.1.62 > 10.244.2.74: ICMP echo request, id 2816, seq 67, length 64
17:16:07.780080 IP 10.244.2.74 > 10.244.1.62: ICMP echo reply, id 2816, seq 67, length 64
17:16:08.780127 IP 10.244.1.62 > 10.244.2.74: ICMP echo request, id 2816, seq 68, length 64
17:16:08.780173 IP 10.244.2.74 > 10.244.1.62: ICMP echo reply, id 2816, seq 68, length 64
17:16:09.780576 IP 10.244.1.62 > 10.244.2.74: ICMP echo request, id 2816, seq 69, length 64

#使用master節點ping 10.244.2.74 在node02節點抓包
[[email protected] ~]#  tcpdump -i flannel.1 -nn host 10.244.2.74
tcpdump: verbose output suppressed, use -v or -vv for full protocol decode
listening on flannel.1, link-type EN10MB (Ethernet), capture size 262144 bytes
17:17:51.003946 IP 10.244.0.0 > 10.244.2.74: ICMP echo request, id 30700, seq 4, length 64
17:17:51.004017 IP 10.244.2.74 > 10.244.0.0: ICMP echo reply, id 30700, seq 4, length 64
17:17:52.004634 IP 10.244.0.0 > 10.244.2.74: ICMP echo request, id 30700, seq 5, length 64
17:17:52.004688 IP 10.244.2.74 > 10.244.0.0: ICMP echo reply, id 30700, seq 5, length 64
17:17:53.005045 IP 10.244.0.0 > 10.244.2.74: ICMP echo request, id 30700, seq 6, length 64
17:17:53.005098 IP 10.244.2.74 > 10.244.0.0: ICMP echo reply, id 30700, seq 6, length 64
17:17:54.005302 IP 10.244.0.0 > 10.244.2.74: ICMP echo request, id 30700, seq 7, length 64
17:17:54.005359 IP 10.244.2.74 > 10.244.0.0: ICMP echo reply, id 30700, seq 7, length 64

#可以看到報文都是經過flannel.1網絡接口進入2層隧道進而轉發

發送到10.244.1.0/24和10.244.20/24網段的數據報文發給本機的flannel.1接口,即進入二層隧道,然後對數據報文進行封裝(封裝VxLAN首部-->UDP首部-->IP首部-->以太網首部),到達目標Node節點後,由目標Node上的flannel.1進行解封裝。
VXLAN是Linux內核本身支持的一種網絡虛擬化技術,是內核的一個模塊,在內核態實現封裝解封裝,構建出覆蓋網絡,其實就是一個由各宿主機上的Flannel.1設備組成的虛擬二層網絡。

由於VXLAN由於額外的封包解包,導致其性能較差,所以Flannel就有了host-gw模式,即把宿主機當作網關,除了本地路由之外沒有額外開銷,性能和calico差不多,由於沒有疊加來實現報文轉發,這樣會導致路由表龐大。因為一個節點對應一個網絡,也就對應一條路由條目。

host-gw雖然VXLAN網絡性能要強很多。,但是種方式有個缺陷:要求各物理節點必須在同一個二層網絡中。物理節點必須在同一網段中。這樣會使得一個網段中的主機量會非常多,萬一發一個廣播報文就會產生幹擾。在私有雲場景下,宿主機不在同一網段是很常見的狀態,所以就不能使用host-gw了。

VXLAN還有另外一種功能,VXLAN也支持類似host-gw的玩法,如果兩個節點在同一網段時使用host-gw通信,如果不在同一網段中,即 當前pod所在節點與目標pod所在節點中間有路由器,就使用VXLAN這種方式,使用疊加網絡。 結合了Host-gw和VXLAN,這就是VXLAN的Direct routing模式

Direct routing模式配置

修改kube-flannel.yml文件,將flannel的configmap對象改為:

[[email protected] manifests]# wget https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml #下載原版配置文件進行修改後apply執行

[[email protected] manifests]# vim kube-flannel.yml
......
  net-conf.json: |
    {
      "Network": "10.244.0.0/16",
      "Backend": {
        "Type": "vxlan",  #註意,號
        "Directrouting": true  #增加字段
      }
    }
......


#此時需要刪除flannel網絡後重建,但是會影響所有pod,生產中不建議這麽使用kubectl delete -f kube-flannel.yaml ,kubectl apply -f kube-flannel.yaml 
#查看已經生成相應規則
[[email protected] manifests]# ip route show
default via 10.0.0.2 dev ens33 proto static metric 100 
10.0.0.0/24 dev ens33 proto kernel scope link src 10.0.0.10 metric 100 
10.244.1.0/24 via 10.0.0.11 dev ens33 
10.244.2.0/24 via 10.0.0.12 dev ens33 
172.17.0.0/16 dev docker0 proto kernel scope link src 172.17.0.1 

配置完成後,各節點會生成類似directrouting一樣的 路由和iptables規則,用於實現二層轉發Pod網絡的通信報文,省去了隧道轉發模式的額外開銷。但是存在的問題點是,對於不在同一個二層網絡的報文轉發,host-gw是無法實現的。延續上面的例子,進行抓包查看:

[[email protected] manifests]# kubectl get pods -o wide
NAME                            READY   STATUS    RESTARTS   AGE   IP            NODE     NOMINATED NODE   READINESS GATES
myapp-deploy-65df64765c-85k8x   1/1     Running   0          28s   10.244.1.66   node01   <none>           <none>
myapp-deploy-65df64765c-8trf2   1/1     Running   0          28s   10.244.1.65   node01   <none>           <none>
myapp-deploy-65df64765c-cxgq4   1/1     Running   0          28s   10.244.2.78   node02   <none>           <none>
myapp-deploy-65df64765c-l646w   1/1     Running   0          28s   10.244.2.79   node02   <none>           <none>
pod-demo                        2/2     Running   0          43s   10.244.2.77   node02   <none>           <none>

#進入myapp-deploy-65df64765c-85k8x 容器ping另一個節點的容器10.244.2.79

[[email protected] manifests]# kubectl exec -it myapp-deploy-65df64765c-85k8x -- /bin/sh
/ # ping 10.244.2.79
PING 10.244.2.79 (10.244.2.79): 56 data bytes
64 bytes from 10.244.2.79: seq=0 ttl=62 time=2.812 ms
64 bytes from 10.244.2.79: seq=1 ttl=62 time=0.398 ms
64 bytes from 10.244.2.79: seq=2 ttl=62 time=0.362 ms

#node02節點抓包
[[email protected] ~]# tcpdump -i ens33 -nn icmp
tcpdump: verbose output suppressed, use -v or -vv for full protocol decode
listening on ens33, link-type EN10MB (Ethernet), capture size 262144 bytes
08:56:37.256880 IP 10.244.1.66 > 10.244.2.79: ICMP echo request, id 2816, seq 38, length 64
08:56:37.256948 IP 10.244.2.79 > 10.244.1.66: ICMP echo reply, id 2816, seq 38, length 64
08:56:38.256295 IP 10.244.1.66 > 10.244.2.79: ICMP echo request, id 2816, seq 39, length 64
08:56:38.256371 IP 10.244.2.79 > 10.244.1.66: ICMP echo reply, id 2816, seq 39, length 64
08:56:39.255704 IP 10.244.1.66 > 10.244.2.79: ICMP echo request, id 2816, seq 40, length 64

從上面的結果可以看到,發往10.244.1.0/24和10.244.1.0/24的包都是直接經過eth0網絡接口直接發出去的,這就是Directrouting。如果兩個節點是跨網段的,則flannel自動降級為VxLAN模式。

此時,在各個集群節點上執行“iptables -nL”命令可以看到,iptables filter表的FORWARD鏈上由其生成了如下兩條轉發規則,它顯示放行了10.244.0.0/16網絡進出的所有報文,用於確保由物理接收或發送的目標地址或源地址為10.244.0.0/16網絡的所有報文均能夠正常通行。這些是 Direct Routing模式得以實現的必要條件:
再在此之前創建的Pod和宿主機上進行ping測試,可以看到在flannel.1接口上已經抓不到包了,在eth0上可以用抓到ICMP的包

Host-gw後端

? Flannel除了上面2種數據傳輸的方式以外,還有一種是host-gw的方式,host-gw後端是通過添加必要的路由信息使用節點的二層網絡直接發送Pod的通信報文。它的工作方式類似於Directrouting的功能,但是其並不具備VxLan的隧道轉發能力。

? 編輯kube-flannel的配置清單,將ConfigMap資源kube-flannel-cfg的data字段中網絡配置進行修改,如下:

[[email protected] ~]# vim kube-flannel.yml
......
  net-conf.json: |
    {
      "Network": "10.244.0.0/16",
      "Backend": {
        "Type": "host-gw"
      }
    }
......

配置完成後,各節點會生成類似directrouting一樣的 路由和iptables規則,用於實現二層轉發Pod網絡的通信報文,省去了隧道轉發模式的額外開銷。但是存在的問題點是,對於不在同一個二層網絡的報文轉發,host-gw是無法實現的

[[email protected] manifests]# ip route
default via 10.0.0.2 dev ens33 proto static metric 100 
10.0.0.0/24 dev ens33 proto kernel scope link src 10.0.0.10 metric 100 
10.244.1.0/24 via 10.0.0.11 dev ens33 
10.244.2.0/24 via 10.0.0.12 dev ens33 
172.17.0.0/16 dev docker0 proto kernel scope link src 172.17.0.1 

/ # ping -c 2 10.244.1.66 
PING 10.244.1.66 (10.244.1.66): 56 data bytes
64 bytes from 10.244.1.66: seq=0 ttl=62 time=0.433 ms
64 bytes from 10.244.1.66: seq=1 ttl=62 time=0.334 ms

--- 10.244.1.66 ping statistics ---
2 packets transmitted, 2 packets received, 0% packet loss
round-trip min/avg/max = 0.334/0.383/0.433 ms

[[email protected] mainfest]# tcpdump -i ens33 -nn icmp
tcpdump: verbose output suppressed, use -v or -vv for full protocol decode
listening on ens33, link-type EN10MB (Ethernet), capture size 262144 bytes
09:09:39.496407 IP 10.244.2.78 > 10.244.1.66: ICMP echo request, id 3072, seq 0, length 64
09:09:39.496588 IP 10.244.1.66 > 10.244.2.78: ICMP echo reply, id 3072, seq 0, length 64
09:09:40.497129 IP 10.244.2.78 > 10.244.1.66: ICMP echo request, id 3072, seq 1, length 64
09:09:40.497356 IP 10.244.1.66 > 10.244.2.78: ICMP echo reply, id 3072, seq 1, length 64

該模式下,報文轉發的相關流程如下:

  1. Pod10.244.2.78向node02的Pod10.244.1.66發送報文,查看到報文中的目的地址為10.244.1.66,並非本地網段,會直接發送到網關10.0.0.12
  2. 網關發現目標的地址為10.244.1.66,要到達10.244.1.0/24網段,需要送達到node01的物理網卡,node01接收以後發現該報文的目標地址屬於本機上的另一個虛擬網卡,然後轉發到相對應的Pod10.244.1.66

以上就是Flannel網絡模型的三種工作模式,但是flannel自身並不具備為Pod網絡實現網絡策略和網絡通信隔離的功能,為此只能借助於Calico聯合統一的項目Calnal項目進行構建網絡策略的功能。

網絡策略

網絡策略(Network Policy )是 Kubernetes 的一種資源。Network Policy 通過 Label 選擇 Pod,並指定其他 Pod 或外界如何與這些 Pod 通信。

Pod的網絡流量包含流入(Ingress)和流出(Egress)兩種方向。默認情況下,所有 Pod 是非隔離的,即任何來源的網絡流量都能夠訪問 Pod,沒有任何限制。當為 Pod 定義了 Network Policy,只有 Policy 允許的流量才能訪問 Pod。

Kubernetes的網絡策略功能也是由第三方的網絡插件實現的,因此,只有支持網絡策略功能的網絡插件才能進行配置網絡策略,比如Calico、Canal、kube-router等等。

部署Canal提供網絡策略功能

Calico可以獨立地為Kubernetes提供網絡解決方案和網絡策略,也可以和flannel相結合,由flannel提供網絡解決方案,Calico僅用於提供網絡策略,此時將Calico稱為Canal。結合flannel工作時,Calico提供的默認配置清單式以flannel默認使用的10.244.0.0/16為Pod網絡,因此在集群中kube-controller-manager啟動時就需要通過--cluster-cidr選項進行設置使用該網絡地址,並且---allocate-node-cidrs的值應設置為true。

#下載文件到本地
[[email protected] calico]# wget https://docs.projectcalico.org/v3.2/getting-started/kubernetes/installation/hosted/canal/rbac.yaml
[[email protected] calico]# wget https://docs.projectcalico.org/v3.2/getting-started/kubernetes/installation/hosted/canal/canal.yaml

#應用
[[email protected] calico]# kubectl apply -f rbac.yaml 
[[email protected] calico]# kubectl apply -f canal.yaml 

Canal作為DaemonSet部署到每個節點,屬於kube-system這個名稱空間。需要註意的是,Canal只是直接使用了Calico和flannel項目,代碼本身沒有修改,Canal只是一種部署的模式,用於安裝和配置項目。

[[email protected] calico]# kubectl get pods -n kube-system -w
NAME                                   READY   STATUS              RESTARTS   AGE
canal-nbspn                            0/3     ContainerCreating   0          2m16s
canal-pj6rx                            2/3     Running             0          2m16s
canal-rgsnp                            3/3     Running             0          2m16s

配置策略

在Kubernetes系統中,報文的流入和流出的核心組件是Pod資源,它們也是網絡策略功能的主要應用對象。NetworkPolicy對象通過podSelector選擇 一組Pod資源作為控制對象。NetworkPolicy是定義在一組Pod資源之上用於管理入站流量,或出站流量的一組規則,有可以是出入站規則一起生效,規則的生效模式通常由spec.policyTypes進行 定義。如下圖:
技術分享圖片

默認情況下,Pod對象的流量控制是為空的,報文可以自由出入。在附加網絡策略之後,Pod對象會因為NetworkPolicy而被隔離,一旦名稱空間中有任何NetworkPolicy對象匹配了某特定的Pod對象,則該Pod將拒絕NetworkPolicy規則中不允許的所有連接請求,但是那些未被匹配到的Pod對象依舊可以接受所有流量。
對特定的Pod集合來說,入站和出站流量默認是放行狀態,除非有規則可以進行匹配。還有一點需要註意的是,在spec.policyTypes中指定了生效的規則類型,但是在networkpolicy.spec字段中嵌套定義了沒有任何規則的Ingress或Egress時,則表示拒絕入站或出站的一切流量。定義網絡策略的基本格式如下:

apiVersion: networking.k8s.io/v1        #定義API版本
kind: NetworkPolicy                    #定義資源類型
metadata:
  name: allow-myapp-ingress             #定義NetwokPolicy的名字
  namespace: default
spec:                                 #NetworkPolicy規則定義
  podSelector:                         #匹配擁有標簽app:myapp的Pod資源
    matchLabels:
      app: myapp
  policyTypes ["Ingress"]               #NetworkPolicy類型,可以是Ingress,Egress,或者兩者共存
  ingress:                            #定義入站規則
  - from:
    - ipBlock:                        #定義可以訪問的網段
        cidr: 10.244.0.0/16
        except:                       #排除的網段
        - 10.244.3.0/24
    - podSelector:                    #選定當前default名稱空間,標簽為app:myapp可以入站
        matchLabels:
          app: myapp
    ports:                           #開放的協議和端口定義
    - protocol: TCP
      port: 80
  

該網絡策略就是將default名稱空間中擁有標簽"app=myapp"的Pod資源開放80/TCP端口給10.244.0.0/16網段,並排除10.244.3.0/24網段的訪問,並且也開放給標簽為app=myapp的所有Pod資源進行訪問。

Ingress管控

創建

[[email protected] manifests]# mkdir networkpolicy
#創建名稱空間 dev  prod
[[email protected] manifests]# kubectl create namespace dev
namespace/dev created
[[email protected] manifests]# kubectl create namespace prod
namespace/prod created
[[email protected] manifests]# kubectl get ns
NAME            STATUS   AGE
default         Active   12d
dev             Active   6s
ingress-nginx   Active   7d16h
kube-public     Active   12d
kube-system     Active   12d
prod            Active   3s

#定義規則
[[email protected] manifests]# cd networkpolicy/
[[email protected] networkpolicy]# vim ingress-def.yaml
apiVersion: networking.k8s.io/v1
kind: NetworkPolicy
metadata:
  name: deny-all-ingress
spec:
  podSelector: {}
  policyTypes:
  - Ingress


#執行 指定在dev名稱空間生效
[[email protected] networkpolicy]# kubectl apply -f ingress-def.yaml -n dev
networkpolicy.networking.k8s.io/deny-all-ingress created

[[email protected] networkpolicy]# kubectl get netpol -n dev
NAME               POD-SELECTOR   AGE
deny-all-ingress   <none>         33s

運行Pod

[[email protected] networkpolicy]# vim pod-a.yaml
apiVersion: v1
kind: Pod
metadata:
  name: pod1
spec:
  containers:
  - name: myapp
    image: ikubernetes/myapp:v1

[[email protected] networkpolicy]# kubectl apply -f pod-a.yaml -n dev
pod/pod1 created
[[email protected] networkpolicy]# kubectl get pods -n dev -o wide
NAME   READY   STATUS    RESTARTS   AGE   IP           NODE     NOMINATED NODE   READINESS GATES
pod1   1/1     Running   0          21s   10.244.2.3   node02   <none>           <none>

嘗試訪問剛剛創建的pod1

[[email protected] networkpolicy]# curl 10.244.2.3
curl: (7) Failed connect to 10.244.2.3:80; 連接超時

嘗試訪問在prod名稱空間的pod1

[[email protected] networkpolicy]# kubectl apply -f pod-a.yaml -n prod
pod/pod1 created
[[email protected] networkpolicy]# kubectl get pods -o wide -n prod
NAME   READY   STATUS    RESTARTS   AGE   IP           NODE     NOMINATED NODE   READINESS GATES
pod1   1/1     Running   0          11s   10.244.2.4   node02   <none>           <none>
[[email protected] networkpolicy]# curl 10.244.2.4
Hello MyApp | Version: v1 | <a href="hostname.html">Pod Name</a>

總結
此時dev名稱空間使用了Ingress規則,但是為空,代表拒絕所有入站請求,而prod名稱空間沒有定義Ingress規則,允許所有訪問。

定義dev名稱空間可以對外被訪問

[[email protected] networkpolicy]# vim ingress-def.yaml 
apiVersion: networking.k8s.io/v1
kind: NetworkPolicy
metadata:
  name: deny-all-ingress
spec:
  podSelector: {}
  ingress:
  - {}
  policyTypes:
  - Ingress

#應用後嘗試訪問dev名稱空間中的pod1
[[email protected] networkpolicy]# kubectl apply -f ingress-def.yaml  -n dev
networkpolicy.networking.k8s.io/deny-all-ingress configured
[[email protected] networkpolicy]# kubectl get pods -n dev -o wide
NAME   READY   STATUS    RESTARTS   AGE   IP           NODE     NOMINATED NODE   READINESS GATES
pod1   1/1     Running   0          11m   10.244.2.3   node02   <none>           <none>
[[email protected] networkpolicy]# curl 10.244.2.3 
Hello MyApp | Version: v1 | <a href="hostname.html">Pod Name</a>

dev名稱空間中的pod1可以被訪問,因為增加了ingress規則 {}表示映射所有。

放行特定的入棧流量:
可以使用標簽選擇器來選擇指定的一組pod來定義規則

#給pod1打標簽
[[email protected] networkpolicy]# kubectl label pods pod1 app=myapp -n dev
pod/pod1 labeled

#定義
[[email protected] networkpolicy]# vim allow-netpol-demo.yaml
apiVersion: networking.k8s.io/v1
kind: NetworkPolicy
metadata:
  name: all-myapp-ingress
spec:
  podSelector:    
    matchLabels:   #使用標簽選擇器匹配
      app: myapp
  ingress:
  - from:
    - ipBlock: #允許網段
        cidr: 10.244.0.0/16
        except:  #排除IP  也可是網段
        - 10.244.1.88/32
    ports:  #定義入棧規則允許被訪問的端口和協議
    - protocol: TCP
      port: 80


#應用
[[email protected] networkpolicy]# kubectl get netpol -n dev
NAME                  POD-SELECTOR   AGE
allow-myapp-ingress   app=myapp      38s
deny-all-ingress      <none>         26m

嘗試訪問dev中pod1的80和443端口,驗證,(myapp沒有443端口,如果被阻擋應提示連接超時,如果可以訪問應提示 拒絕連接)

[[email protected] networkpolicy]# curl 10.244.2.3
Hello MyApp | Version: v1 | <a href="hostname.html">Pod Name</a>
[[email protected] networkpolicy]# curl 10.244.2.3:443
curl: (7) Failed connect to 10.244.2.3:443; 連接超時

Egress管控

通常,出站的流量默認策略應該是允許通過的,但是當有精細化需求,僅放行那些有對外請求需要的Pod對象的出站流量,也可以先為名稱空間設置“禁止所有”的默認策略,再細化制定準許的策略。networkpolicy.spec中嵌套的Egress字段用來定義出站流量規則。

實踐中,需要進行嚴格隔離的環境通常將默認的策略設置為拒絕所有出站流量,再去細化配置允許到達的目標端點的出站流量。

舉例,禁止prod名稱空間所有出站規則,入棧全部允許

#配置禁止出站規則
[[email protected] networkpolicy]# vim egress-def.yaml 
apiVersion: networking.k8s.io/v1
kind: NetworkPolicy
metadata:
  name: deny-all-egress
spec:
  podSelector: {}
  policyTypes:
  - Egress

#應用並查看
[[email protected] networkpolicy]# kubectl apply -f egress-def.yaml -n prod
networkpolicy.networking.k8s.io/deny-all-egress created
[[email protected] networkpolicy]# kubectl get netpol -n prod
NAME              POD-SELECTOR   AGE
deny-all-egress   <none>         13s


#在prod內創建pod
[[email protected] networkpolicy]# kubectl get pods -n prod -o wide
NAME   READY   STATUS    RESTARTS   AGE   IP           NODE     NOMINATED NODE   READINESS GATES
pod1   1/1     Running   0          29m   10.244.2.4   node02   <none>           <none>

#進入pod1內部,嘗試ping集群內dashboard的ip地址 10.244.2.72
[[email protected] networkpolicy]# kubectl exec -it pod1 -n prod -- /bin/sh
/ # ping 10.244.2.72
PING 10.244.2.72 (10.244.2.72): 56 data bytes
#無法ping通,現在修改配置清單允許所有出站流量
[[email protected] networkpolicy]# vim egress-def.yaml 
apiVersion: networking.k8s.io/v1
kind: NetworkPolicy
metadata:
  name: deny-all-egress
spec:
  podSelector: {}
  egress:
  - {}
  policyTypes:
  - Egress

#應用後再次進入pod1內嘗試pingdashboard的ip地址 10.244.2.72
[[email protected] networkpolicy]# kubectl apply -f egress-def.yaml -n prod
networkpolicy.networking.k8s.io/deny-all-egress configured

[[email protected] networkpolicy]# kubectl exec -it pod1 -n prod -- /bin/sh
/ # ping 10.244.2.72
PING 10.244.2.72 (10.244.2.72): 56 data bytes
64 bytes from 10.244.2.72: seq=144 ttl=63 time=0.189 ms
64 bytes from 10.244.2.72: seq=145 ttl=63 time=0.084 ms
64 bytes from 10.244.2.72: seq=146 ttl=63 time=0.086 ms
64 bytes from 10.244.2.72: seq=147 ttl=63 time=0.092 ms
64 bytes from 10.244.2.72: seq=148 ttl=63 time=0.079 ms

隔離名稱空間

實踐中,通常需要彼此隔離所有的名稱空間,但是又需要允許它們可以和kube-system名稱空間中的Pod資源進行流量交換,以實現監控和名稱解析等各種管理功能。下面的配置清單示例在default名稱空間定義相關規則,在出站和入站都默認均為拒絕的情況下,它用於放行名稱空間內部的各Pod對象之間的通信,以及和kube-system名稱空間內各Pod間的通信。

apiVersion: networking.k8s.io/v1
kind: NetworkPolicy
metadata:
  name: namespace-deny-all
  namespace: default
spec:
  policyTypes: ["Ingress","Egress"]
  podSelector: {}
---
apiVersion: networking.k8s.io/v1
kind: NetworkPolicy
metadata:
  name: namespace-allow
  namespace: default
spec:
  policyTypes: ["Ingress","Egress"]
  podSelector: {}
  ingress:
  - from:
    - namespaceSelector:
        matchExpressions:
        - key: name
          operator: In
          values: ["default","kube-system"]
  egress:
  - to:
    - namespaceSelector:
        matchExpressions:
        - key: name
          operator: In
          values: ["default","kube-system"]

有一些額外的系統附件可能會單獨部署到獨有的名稱空間中,比如將prometheus監控系統部署到prom名稱空間等,這類具有管理功能的附件所在的名稱空間和每一個特定的名稱空間的出入流量也是需要被放行的。

參考資料

https://www.cnblogs.com/linuxk
馬永亮. Kubernetes進階實戰 (雲計算與虛擬化技術叢書)
Kubernetes-handbook-jimmysong-20181218

Kubernetes之(十七)網絡模型和網絡策略