1. 程式人生 > >2017下一代數據中心網絡研究報告zz

2017下一代數據中心網絡研究報告zz

數量 tail tac 情況下 發展 for abs 代碼 系統介紹

http://dy.163.com/v2/article/detail/CDG9CD7G05179LAH.html

  2月2日,SDxCentral發布了2017下一代數據中心研究報告(2017 Next Gen Data Center Networking Report)。這份報告系統介紹了下一代數據中心網絡的發展趨勢、關鍵功能、典型案例、行業標準以及熱門產品。

  下一代數據中心演進的四大驅動力

  1、業務競爭驅動:企業提升自身競爭力,對敏捷性、差異化和成本節約提出了新要求

  Increased Competitiveness Driving Agility, Cost-savings, Differentiation in IT

  2、內容流量驅動: 高速增長的視頻和富媒體內容成為數據中心的新壓力

  Increased Consumption of Video and Media-rich Content

   3、交付模式驅動: 雲計算和移動化成為主流交付模式

  Dominance of Cloud and Mobile Applications

  4、工作負載驅動: 大數據分析和物聯網日益重要,未來將成為數字化轉型的關鍵手段。

  Importance of Data - Big Data, IoT and Analytics

  這部分開場白都是套話,沒什麽幹貨,就不詳細翻譯了

  下一代數據中心對網絡的關鍵需求

  
1、簡單化、標準化和模塊化

  Simplification, Standardization and Modularity

  數據中心運營者希望能夠刪減那些不必要的路由/交換功能,利用標準服務器提供網絡優化,采用較少商用芯片數量構建更為簡單的網絡矩陣,同時將L4-L7的功能遷移到標準服務器上,這些需求,都與傳統廠商的理念背道而馳。

  LinkedIn、Facebook、Microsoft、Google等巨頭已經開啟模塊化數據中心Pod之路,每個Pod都包含了標準化的網絡架構,大規模利用成本低廉的商品化交換機,芯片也切換到BCM、Marvell和一些新興芯片制造商(比如Barefoot、Cavium Xpliant和盛科)。

  模塊化的節點更易部署和替換,也提升了橫向擴展能力,隨著這種雲服務商的帶動,大型企業級市場也有這種趨勢。

   2、對虛擬化和容器的支持

  Virtualization and Containers

  在虛擬化和容器化盛行的時代,無論南北流量還是東西流量,都無法回避虛擬交換機的存在。人們希望虛擬交換機的支持,能像以前使用VLAN一樣簡單。

  復雜的疊加網絡環境造成各種標簽混雜,比如來自與廣域網的MPLS鏈接很有可能就被ToR交換機給終結掉了。

   3、可編程能力

  Programmability

  為滿足業務敏捷型和靈活性需求,網絡可編程能力必不可少。上層業務必須能夠實時控制底層網絡,進行編排和優化。無論這些業務采用基於XML/JSON的RESTful接口,還是用P4編程或者Openflow協議控制,都需要網絡設備本身能夠“被集成”,與數據中心融為一體。

  如今已經有越來越多的企業級網絡產品可以被雲管理平臺(比如Openstack、VMware vRealize suite、Cloudstack)集成部署。網絡被系統配置管理是大勢所趨,甚至這種響應被要求是實時的。

   4、自動化和DevOps/NetOps

  Automation and DevOps/NetOps

  可編程性讓網絡集成到編排系統成為可能,但是系統需要被部署、被監控、被更新,並非一勞永逸。傳統情況下,網工最愛命令行CLIs,很多廠商提供過圖形配置界面,但是很少能廣泛應用的,大量的設備還是被“命令行”管理著。

  但是,DevOps正在對網絡行業產生影響,或者說我們需要NetOps來拯救。基於自動化配置工具(Ansible/Puppet/Chef等),網工們也可以像管理服務器一樣去管理網絡基礎設施了。

   5、可視化與Troubleshooting

  Improved Visibility and Troubleshooting

  跨數據中心流量暴增以及Overlays的存在,讓網絡可視化變得尤為重要。可視化有理於快速定位網絡延遲或者洞察流量突發。還需要具備對流量數據的收集和分析能力,用於排障、優化和安全防範,如果只有海量告警事件日誌,那就只能抓瞎了。

  另外,由於數據中心網絡正在演進為基於ECMP的leaf-spine三層Fabric,保障所有數據的可達性非常關鍵,不要讓“大象數據流”阻擋了“老鼠數據流”,“可視化”有助於讓我們了解整個交換矩陣發生了什麽,甚至細化到每個交換機端口的緩存利用率。

   6、開放的硬件平臺

  Open Hardware Platforms

  從成本和可配置性考慮,數據中心網絡運營者越來越關註白盒或者其他開放硬件平臺。有人相信,采用白盒,在硬件成本上可以節省30%-80%。由於這些白盒供應商同時也為品牌交換機廠商提供OEM/ODM服務,所以產品品質和可靠性不存在疑問。

  時至今日,諸如EdgeCore等低成本白盒硬件供應商值得考慮,但你需要找到成熟的軟件來支持。另外,像Dell、HPE和華為也提供白盒交換機,但是會提供他們自己的品牌軟件,這種模式被稱為“灰盒”(gray box)。

  下一代數據中心網絡演進

  
“老幫菜”數據中心網絡長這樣

  由純物理交換機/路由器組成,有主備或者雙A設計,以南北流量為主。

  技術分享圖片

  “新生代”數據中心網絡長這樣

  到了雲時代,SDN和NFV參與進來,數據中心網絡的邊界定義被擴大,從服務器內部的虛擬網絡到數據中心物理網絡,再到數據中心互聯網絡。

  技術分享圖片

  在這樣的數據中心裏,四個關鍵組件必不可少:

  虛擬交換機:滿足服務器內部vm和容器的交換需求。

  網絡加速卡:智能網卡或加速器提供vSwitch卸載、安全以及存儲加速

  ToR與Leaf/Spine:兩層Clos架構再次得到推廣,架構開放,擴展性強。(雖然這種架構早在1950年代就已經在電話交換網中使用了),大量的商用套片和白盒被應用在Leaf和Spine交換機中,降低成本,解決廠商鎖定。

  數據中心互聯(DCI):數據中心基於交換機就可以完成直連,DCI互聯模塊被直接集成到數據中心交換機上,比如100Gbps DWDM。L2 over L3的隧道技術也得到推廣應用,還有我們不得不提的SDWAN。

  下一代數據中心網絡關鍵趨勢

  
趨勢1、解耦與白盒

  Disaggregation and White box

  解耦的意義包含兩層,第一層:控制平面與數據平面結構,這是SDN的範疇;第二層:網絡硬件與軟件解耦,這是白盒和ONIE的範疇。

  白盒交換機采用的商用套片通常來自於Broadcom(目前主流芯片如Trident II, Trident II+, Tomahawk等等),這類白盒基於ONIE標準提供一個交換機啟動環境,最終用戶可以選擇安裝交換機OS,如 Big Switch的ONL、Apstra的Apstra OS、Cumulus Linux等等。

  為保證網絡與數據中心集成和可編程性,這些OS還提供了相應接口,包括OF-DPA (OpenFlow Data Plane Abstraction)、OpenNSL (Open Network Switch Layer) 以及 SAI (Switch Abstraction Interface)。前兩個接口標準主要綁定Broadcom,而SAI出身於OCP,支持多個廠商的芯片(Broadcom, Cavium, Mellanox, Centec、Barefoot)。

  在交換機OS之上,還有諸多為交換機管理和轉發功能定制的“插件”,比如開源三層路由代碼Quagga和BIRD,以及Facebook出品的FBOSS、微軟Azure出品的SNOiC,開放的世界很精彩。

  解耦的白盒陣營與傳統的交換機貴族Cisco、Arista、Junper、Brocade還有很長的博弈時間,但是我們看到,戴爾、HPE、華為已經開始銷售開放網絡平臺(灰盒)。而新進玩家Cumulus、EdgeCore、Pica8和其他ODM廠商也在努力推動白盒產業。

  在OCP的推動下,新供應商們正在給市場帶來更具性價比、更高性能的硬件產品,而開源團體也會在軟件上持續努力,用廉價的開放產品去替代企業級市場那些高價貨!

  趨勢2、虛擬化、Overlays和Openstack

  Virtualization, Overlays and OpenStack

  雖然Facebook聲明他們的業務並不需要Overlays和計算虛擬化,(他們的應用被設計運行的物理服務器上),但是Amazon、Google和Microsoft卻是虛擬化和容器化的重度使用者。

  在重度虛擬化應用場景,vSwitch必須保持高性能(基於硬件加速、DPDK、FDiO VPP等等),同時還需要支持Overlay的終結,VXLAN應該作為架頂交換機(ToR)的必選項:實現Overlays流量可視化、在VM和物理機混合接入環境下提供VTEP能力等等。

  對於下一代數據中心網絡來說,另一個重要考量是支持以Openstack為代表的CMP(cloud management platform)平臺,提供部署、監控、管理接口,對於企業級運行環境,還應該支持VM熱遷移的集成接口。

  趨勢3、支持ECMP的兩層Clos-Fabrics

  2-stage Leaf-spine Clos-Fabrics with ECMP and Pods

  現代數據中心已經從老式胖樹架構進化到兩級L3 Leaf-spine Clos矩陣,基於ECMP提供多路徑流量分擔。這種架構拋棄了大型的機箱式核心交換機,用簡單的Leaf-spine交換機實現部署低成本、高靈活。連老牌廠商Cisco、Juniper、Arista也開始擁抱Leaf-Spine,積極在企業級數據中心市場進行鼓吹推廣。

  而在全球最大的一些數據中心裏面,Clos結構的網絡被打包在“Pod”裏面,通過橫向擴展滿足Pod巨量的連接需求(參見下文Facebook的Altoona數據中心)。

  然而leaf-spine架構也有不爽之處,首先Leaf和Spine之間需要大量的網絡連接,線纜維護復雜,替換和新增spine的時候,工作量是巨大的。其次,基於L3技術,VLAN受到Leaf交換機的限制,導致VM移動性不佳,這就必須依賴VXLAN之類的Overlay技術去解決,會增大開銷。

  由於Leaf和Spine之間的海量連接,要進行監控和排錯很難,微軟在其Azure數據中心裏,采用了一種全量ping測試,被稱為PingMesh。PingMesh本質上講是一種強力的在所有端點之間運行Ping測試的方式,可視化的去顯示任意兩個端點之間的連接狀況。

  PingMesh已經在微軟數據中心運行多年,每天要產生超過兩千億次探測。

  趨勢4、軟件定義網絡、策略、意圖

  SDN, Policy and Intent

  當今數據中心網絡之復雜,僅靠人肉運維是不可能的,SDN作為自動化工具,流行起來順理成章。大型數據中心(如Goole和微軟),無論內部還是外部,都有各種形態的SDN存在,Goolge的 B4廣域網,就是SDN最典型的案例之一。

  在以雲計算為核心的生產環境中,傳統手工作坊式的網絡配置、參數修改如同杯水車薪,應用需要基於CMP來自動化部署系統、優化參數,每個應用都有不同的配置文件、需要特定的網絡支持以滿足時延、彈性等QoS要求。這些需求會被綁定成策略集,自動化完成下發和部署。

  Cisco ACI就是一個策略化(Policy-based)處理網絡的商用案例,同樣,OpenDaylight和ONOS等SDN控制器的目標,也是在網絡部署中提供可編程策略。

  基於策略分發,讓我們正在向“意圖型”網絡(intent-based networking)演進:只需要“告訴我你想得到什麽”,而不是“告訴我具體怎麽做”,剩下的,交給SDN去幹。

  也許這就是智能網絡的未來狀態,讓你從繁復的具體配置工作中解脫出來!

  趨勢5、大數據分析

  Big Data and Analytics

  下一代數據中心網絡的典型應用場景是大數據分析,戲劇性的是,網絡生成的數據流本身就是一個大數據用例。很多廠商和組織抓取這些數據,用於優化和潛在安全分析,初創公司Pluribus和Big Switch都在兜售他們的數據監控能力,而Cisco則推出了Tetration平臺用於網絡數據分析。

  下一代數據中心網絡成果和標準

  
1、互聯網巨頭們的實踐

  A 6-Pack of Wedge, Firehose, Watchtower, Pluto, Saturn, Jupiter, Altair, Olympus and more

  引領數據中心變革的,是那些別無選擇只能追求持續創新的互聯網企業,Facebook、Google、微軟、領英都在不斷努力,他們內部的數據中心團隊驅動著從架構、軟件、硬件全方位演進。

  Google

  

  Google的數據中心已經進化到第5代,從設計了卻沒用的“Firehose”,到“Watchtower”,再到"Pluto" 和"Saturn",直到今天使用的 "Jupiter",最新保密設計並未對外公開。Google希望實現一個完整的內置網絡的雲基礎設施,作為一個單元來設計。其目標是打造超過10000臺Server的超級集群,將資源利用率發揮到極致。

  

  LinkedIn

  

  LinkedIn的網絡團隊對自己的Altair項目和Falco項目非常自豪。Falco項目其實是基於BCM Tomahawk芯片打造的交換機,該交換機被命名為“鴿子”,提供3.2Tbps交換能力,可以作為Leaf或者Spine使用。“鴿子”運行基於Linux的軟件系統,並集成了一大宗監控和管理工具。Altair項目則是一個大規模可伸縮的數據中心網絡Fabric,用於替換傳統網絡。

  

  Facebook

  

  Facebook是開放計算硬件的領導者,他們發起了的OCP,並貢獻了Wedge和6-pack。

  Wedge是一款ToR交換機,有40G和100G兩種規格,全部貢獻給了OCP項目,並且目前兩款硬件都可以從第三方供應商EdgeCore買到。

  6-pack是Facebook發布的開放式模塊化交換機平臺,它以Wedge為基本構件,是一個全網狀且無阻斷的兩級(two-stage)交換機,內含12個獨立的交換組件,每個組件的交換容量為1.28Tbps。每個組件也運行自己的操作系統,從交換、主板控制,到冷卻系統都是獨立的。這代表用戶能夠在不影響整體系統或軟/硬件的前提下更改系統的任何部份,並藉由獨特的雙背板解決方案來打造無阻斷的拓撲結構。

  技術分享圖片

  在數據中心層面,Facebook設計了Pod級別的模塊——Altoona。Altoona設計可借鑒之處在於,你可以使用小型開放交換機構建你的數據中心,這個架構可以讓你擴展到任何規模,而不需要改變基本構建塊。

  技術分享圖片

  

  Microsoft Azure

  

  微軟Azure的網絡廣泛使用了SDN技術,每個Azure節點都是用了基於FPGA的網絡加速卡——Azure Smart NIC,用來加速流處理、存儲進程、QoS以及加解密。Azure使用SDN控制每塊加速卡上的流表和規則,保障Azure節點的高性能吞吐。

  微軟同時也在雲交換機領域也在驅動創新,是SAI和SONiC(Software for Open Networking in the Cloud)的應用先鋒。SONiC是一個網絡軟件組件集合,包含了交換機常備的BGP、ECMP、LLDP等功能,得到了大量硬件供應商的支持,這裏面包括了Arista(微軟是A公司最大的客戶之一)、BigSwitch、Dell、Mellanox,以及芯片廠商BCM、Cavium和盛科。

  

  2、Linux基金會及相關項目

  Linux Foundation and its associated projects

  項目很多,就不一一詳述了,統一列在這裏

  技術分享圖片

  3、OCP和TIP

  Open Compute Project (OCP) and Telecom Infra Project (TIP)

  下一代數據中心網絡最主要的推動者就是OCP,該項目由Facebook發起,目前獲得了業內廣泛的支持。從互聯網巨頭LinkedIn、 Microsoft、Google,到運營商AT&T、Fidelity和DT 再到設備商Cisco、Dell,、Huawei、HPE、Intel、 Ericsson等等。下圖為OCP白金會員列表。

  技術分享圖片

  OCP是數據中心關鍵硬件方案之家,包括高密度機架(Open Rack)、服務器(Microsoft OpenCloudServer和Facebook Yosemite)、網絡平臺(Wedge 40 100 6-pack)。OCP還是ONIE、ONL、SAI、SONiC這些核心網絡軟件項目的老巢。

  作為OCP的補充,Facebook在2016年又成立了TIP項目(Telecom Infra Project),推動運營商基礎設施的變革和演進,替換傳統網絡架構。TIP的成員包括Intel、Nokia、德電、SK電信、沃達豐、T-Mobile以及思科Juniper等。

2017下一代數據中心網絡研究報告zz