1. 程式人生 > >雲資料中心網路虛擬化——大二層技術巡禮之控制平面一虛多

雲資料中心網路虛擬化——大二層技術巡禮之控制平面一虛多

說完了控制平面多虛一,再來說說控制平面一虛多。我們知道,通過計算資源的一虛多技術,一臺物理伺服器上可以生成多個虛擬機器,它們完全獨立的進行工作。如果能夠參照計算的一虛多,將一臺網路裝置的作業系統分為多個作業系統,每個作業系統對應一臺虛擬裝置,而這些虛擬裝置的資料、控制和管理都是完全獨立的,網管配置起來可以少費不少腦細胞。而且,多個虛擬裝置還能夠做備份、遷移什麼的,反正只要能虛出來,玩法就有很多了。


Cisco VDC和Huawei VS是上述虛擬化路線的代表技術,上面列表展示了幾項主要網路一虛多技術的區別。早期的VRF技術也算是控制平面的一虛多技術,為不同的虛擬網路執行不同的路由程序。不過VRF的一虛多是個半吊子,它只實現了轉發的隔離——各個VRF都執行在同一個OS中,裝置的計算資源包括CPU和記憶體還都是搶佔的,如果一個虛網的路由程序跑死了,其它虛網也難免要跟著遭殃。下面這兩張圖是Cisco VDC的膠片,能夠直觀地說明這一問題。



1)Cisco VDC

VDC( Virtual Device Contexts)是Cisco基於作業系統級別的一虛多網路虛擬化技術。Cisco在資料中心NxK系列交換機中提供了對VDC的支援,N7000能夠支援4個VDC例項(2E引擎支援8個)。每個VDC例項都支援4K個VLAN和256個VRF,從理論上來說所有的邏輯轉發資源都相應地擴充套件了4/8倍。當然,物理資源是不能夠隨之擴充套件的,例如每個物理埠只能關聯一個VDC例項(有一個例外,就是乙太網的VDC和儲存網路的VDC能夠共用一個埠)。當然,VDC也支援通過配置自定義多個例項間的資源分配機制。

每個VDC都是一個獨立的故障域,一個VDC掛了,另外的VDC不會受到影響。如果希望實現高可用性,不同的VDC之間還可以做個備份什麼的,VDC還提供了例項間切換、遷移的功能。

從技術本質上來說,VDC是一種對作業系統的虛擬化,關於這方面作者也瞭解的不多,就不做過多的分析了。除了Cisco的VDC,Juniper和華為也有類似的技術,Juniper的叫做Logical System,華為的叫做VS。

參考資料:

2)Huawei VS

VS(Virtual System)是華為搞出來的控制平面一虛多技術,與VDC技術大同小異,不過名字不同罷了。VS在VDC的基礎上的一個改進是能夠支援1虛16,另外在VS中,埠分配機制擴充套件為兩種模式——埠模式(埠可以被分配到任何VS中,與VDC相同)和埠組模式(一塊線卡上的埠只能分配到同一個VS中),不過對於這個新增的埠組模式,作者暫時也沒想到能有什麼具體的好處。其它的方面,目前還沒有看到VS與VDC有什麼區別。下面參考資料中附了一個VS的白皮書,大家有興趣可以翻一翻。

參考資料:
enterprise.huawei.com/ilink/enenterprise/download/HW_309696

3)Juniper Logical System

與VDC/VS的設計目標沒有什麼區別,Logical System也是將一臺裝置虛出來多臺控制、管理獨立的裝置。不過Logical System虛出來的都是路由器,三層的功能基本上都支援,如OSPF、BGP、PIM、RSVP、MPLS等等,也有一些switchover和restart的HA機制,但完全沒有二層交換的邏輯。而且Logical System貌似比較適合用於試驗環境,更像是一個模擬的系統。網上不多的介紹都是關於使用Logical System做Certificate Learning的,實際用於生產環境沒有找到具體的案例。不具體說了,也給一個Juniper工程師寫的Logical System手冊吧。

TRILL是一種乙太網的多鏈路傳輸技術,通過在乙太網幀前面封裝TRILL報頭,實現了二層的智慧選路。TRILL Egress為TRILL域的終結點,往往不具備本地三層閘道器的功能,因此在實際組網時,往往要增加一臺閘道器裝置。使用VDC,能夠在Nexus 7000上虛出兩個VDC例項,一個做TRILL的終結點,另一個做閘道器,即可以節約一臺裝置的CAPEX。如果有需要,可以再用一個VDC例項起VxLAN/OTV的隧道,在一臺匯聚層裝置上實現了3臺裝置的功能。

上述的場景可提煉為“縱向整合”,即將不同功能、層次的物理裝置進行整合。相對應的VDC類技術還能夠進行“橫向整合”,即在同一個網路層次上面,將多臺提供相類似的功能或者業務的物理裝置進行整合,在多租戶場景下非常有價值。當然了,兩者結合起來部署也是可以的,能夠最大程度地降低裝置的CAPEX。另外,VDC結合VSS或者VS結合CSS,先一虛多再多虛一,可以說應該能夠滿足大多數虛擬化業務的組網需求了。

華為的膠片裡,有如下幾張場景圖,希望將來有機會都部署一下,感受一下虛擬化的魅力。




相關推薦

資料中心網路虛擬化——技術巡禮控制平面

說完了控制平面多虛一,再來說說控制平面一虛多。我們知道,通過計算資源的一虛多技術,一臺物理伺服器上可以生成多個虛擬機器,它們完全獨立的進行工作。如果能夠參照計算的一虛多,將一臺網路裝置的作業系統分為多個作業系統,每個作業系統對應一臺虛擬裝置,而這些虛擬裝置的資料、控制和管

資料中心網路虛擬化——技術巡禮NVo3技術端到端隧道

NVo3(Network Virtualization over Layer 3),是IETF 2014年十月份提出的資料中心虛擬化技術框架。NVo3基於IP/MPLS作為傳輸網,在其上通過隧道連線的方式,構建大規模的二層租戶網路。NVo3的技術模型如下所示,PE裝置稱為

淺談資料中心(IDC)網路技術

    一、為什麼需要大二層     1.虛擬化對資料中心提出的挑戰 傳統的三層資料中心架構結構的設計是為了應付服務客戶端-伺服器應用程式的縱貫式大流量,同時使網路管理員能夠對流量流進行管理。工程師在這些架構中採用生成樹協議(STP)來優化客戶端到伺服器的路徑和支援連線冗餘

資料中心網路虛擬化技術 概要

資料中心網路作為資料中心的核心部件,對多租戶、多應用的生產環境的支援是必不可少的。為此,諸多挑戰需要被解決,例如虛擬化帶來的MAC地址爆炸、二層網路的擴充套件性和三層網路不支援IP地址遷移的矛盾、以及應用需求的多變性和網路配置的複雜性之間的矛盾等等。為了解決這些問題,研究人員提出了網路虛擬化的概念。通過為不同

文帶你瞭解資料中心網路演進

摘要:傳統的三層資料中心,置身虛擬機器化的浪潮中,其中變革創新,就在此篇文章中一窺究竟吧。 傳統資料中心三層組網架構 政府部門或者金融機構等大型企業的資料中心中伺服器的規模可能會達到2000臺以上。一般情況下,資料中心網路都會進行伺服器的分割槽管理,單個業務分割槽規模不大,此時可以採用下圖所示的標準三層架構。

雲端計算時代,資料中心架構三的演變

本文授權轉載自公眾號蛋蛋團。 01 資料中心是什麼 資料中心,指用於安置計算機系統及相關部件的設施,例如電信和儲存系統。 為了滿足自身的業務需求,保證資料的穩定和可靠。無論是網際網路還是傳統行業,都會有自己或大或小的資料中心,甚至如阿里雲和亞馬遜這種專門以出租計算資源的雲端計算公司,更是在全世界各地建

數據中心網絡的技術有哪些

大二層網絡數據中心網絡主要分為計算網絡,存儲網絡和互聯網絡,而計算網絡是數據中心網絡的核心網絡。傳統的數據中心網絡大多采用與園區網相似的二三層架構優點:部署容易,符合數據中心分區分模塊的業務特點但是隨著數據中心從傳統數據中心向虛擬化數據中心和雲化數據中心發展演進,這種二三層混合網架構就顯得力不從心。因為現在的

資料中心網路架構淺談(

上一篇說了傳統三層網路架構,這一次來看看近些年開始流行的Fabric網路架構。**Fabric** Fabric一詞來源於網路交換機。網路交換機就是將輸入埠的資料,經過判斷,轉發到輸出埠。其架構大體如下圖所示: 交換機內部連線輸入輸出埠的是Switch Fab

網路技術背景及主要技術方向

一、為什麼需要大二層 傳統的三層資料中心架構結構的設計是為了應付服務客戶端-伺服器應用程式的縱貫式大流量,同時使網路管理員能夠對流量流進行管理。工程師在這些架構中採用生成樹協議(STP)來優化客戶端到伺服器的路徑和支援連線冗餘,通常將二層網路的範圍限制在網路接入層以下,避免

資料中心網路技術新貴:VXLAN與園區網路虛擬化

摘要:為了應對傳統資料中心網路對伺服器虛擬化技術的限制,VXLAN技術應運而生。 1 概述 傳統資料中心網路面臨的問題 虛擬機器規模受裝置表項規格限制 在傳統二層網路中,交換機通過查詢MAC地址表來轉發資料幀,虛擬機器的數量受限於MAC地址表的容量。 伺服器虛擬化後,VM的數量比原有的物理機發生了數量

軟體葉帥:“網際網路+”時代的資料中心運維思辨(下)

2017中國開源產業峰會暨中國國際軟體博覽會分論壇,優雲軟體葉帥在開源雲端計算技術創新論壇發表了《“網際網路+”時代的雲資料中心運維思辨》的主題演講,本文根據演講內容整理而成。 無論是穩態還是敏態,大家關注的內容最終的目標並不會發生變化,最終的目標都是保證當前的資料、

軟體葉帥:“網際網路+”時代的資料中心運維思辨(上)

2017中國開源產業峰會暨中國國際軟體博覽會分論壇,優雲軟體葉帥在開源雲端計算技術創新論壇發表了《“網際網路+”時代的雲資料中心運維思辨》的主題演講,本文根據演講內容整理而成。 我為大家分享一下目前運維的一些發展態勢,剛才主持人提到在雲環境下或者是“網

詳解混合資料安全傳輸兩解決方案

Gartner稱,雲端計算的使用正在不斷增加,到2016年這一增長將佔據大量新增IT開支。2016年將是雲端計算決定性的一年,私有云開始讓路給混合雲,近半數的大型企業將在2017年年底部署混合雲。 但在此過程中,從公共雲到私有云之間的資料安全傳輸問題也成為各方關注的焦點。 本文詳細解讀了阿里

網路“高速公路”首秀雙11 | 探祕阿里巴巴HAIL資料中心網路

對於技術人員而言,每年的雙11都是一次技術盛宴,是對系統性能的極致挑戰,對系統穩定性的終極考驗。從2009到2018這十年間,交易額達到今天的2135億,每秒訂單建立的峰值也是屢創新高,對於攻城獅來說,這不僅僅是數字的飛躍和世界記錄的重新整理。今天這個超級數字的背後,是交易、搜尋,到中介軟體、儲存、資料庫等等

資料中心網路流量採集難題

隨著資料中心運維精細化要求不斷提高,網路流量採集分析已經成為資料中心基礎設施不可缺少的分析手段,通過網路流量深度分析,我們能夠更直觀地加快故障定位、分析應用資料、協助優化定位,加快故障定位。網路流量採集也是一門學問,做得好會在關鍵時刻起作用,做得不好就會形成虛設

【轉載】資料中心網路架構淺談

資料中心網路架構淺談(一) - 肖巨集輝的文章 - 知乎 https://zhuanlan.zhihu.com/p/29881248 資料中心網路架構淺談(二) - 肖巨集輝的文章 - 知乎 https://zhuanlan.zhihu.com/p/29975418 資料中心網路架構淺談(三

京東大規模資料中心網路運維監控

作者簡介 王大泳 京東集團運維部  網路運維負責人 資深網路架構師 主要負責資料中心網路的架構設計和運維支撐,京東網路團隊負責人,承擔京東商城和京東雲的網路運維工作。擁有十餘年網際網路行業工作經驗,2013年5月加入京東,之前在新浪網工作近10年,多年來一直從事中大型資料中心網路的運維管理工作,

資料中心網路架構淺談(三)

構建一個數據中心網路時,除了考慮網路硬體裝置的架構,2-7層網路設計也需要考慮。這兩者其實不能完全分開,硬體架構有時候決定了網路設計,網路設計有時候又限制了硬體架構。從應用場景,例如SDN/NFV來看,網路設計是最直接需要考慮的。所以這部分說說網路設計。**傳統

2018資料中心網路魔力象限解讀

7月11日,Gartner釋出了2018 資料中心網路魔力象限。跟去年相比,這一次有非常「重要的

Facebook資料中心網路架構概覽

背景   Facebook的使用者已經超過10多億,而且還在迅速增長。為了能夠給使用者提供實時的體驗,Facebook為資料中心設計了一個高可擴充套件,高效能的網路架構 data center fabric。   雖然這個網路架構實際上在14年已經實