重磅,Xilinx計劃收購Mellanox | 半導體行業觀察
來源:內容由微信公眾號 半導體行業觀察(ID:icbank) 整理,謝謝。
據外媒CNBC報道,FPGA巨頭Xilinx就收購Mellanox事宜,聘請巴克萊銀行為其謀劃。訊息人士透露,該交易近期不會達成,並有可能以流產告終。其中兩名訊息人士稱,如果交易最終能夠達成,則預計將在12月對外宣佈。
Mellanox是一家總部位於以色列的公司,該公司成立於1999年。公司官網介紹,他們是一家在全球範圍內為伺服器和儲存提供端到端Infiniband和乙太網互聯解決方案的領軍企業。他們提供的互連解決方案通過低延遲、高吞吐量的強大效能,可以極大的提升資料中心效率,在應用和系統之間快速的傳遞資料,提升系統可用性。Mellanox為業內提供了加快內部裝置互聯的技術和產品,包括網路介面卡、交換機、軟體和晶片,這些產品都可以加速應用的執行,並最大化的提升HPC、企業資料中心、Web2.0、雲端計算、儲存以及金融服務的效率。
據媒體報道,收購邁絡思可令賽靈思獲得更多可在資料中心市場上出售的產品。
我們知道,隨著在伺服器,儲存和嵌入式系統中使用多個多核處理器,I / O頻寬不能跟上處理器的進步,造成效能瓶頸。快速資料訪問已成為利用微處理器增加的計算能力的關鍵要求。此外,互連延遲已成為叢集整體效能的限制因素。
另外,叢集伺服器和儲存系統作為關鍵IT工具的不斷增長的使用導致了互連配置的複雜性的增加。 EDC中的配置和連線數量也有所增加,使得系統管理變得越來越複雜,操作昂貴。另外,使用不同的互連基礎設施管理多個軟體應用程式已變得越來越複雜。
再者,隨著附加的計算和儲存系統或節點被新增到叢集中,互連必須能夠擴充套件,以便提供叢集效能的預期增加。此外,對資料中心能源效率的更多關注正在導致IT經理們尋求採用更節能的方法。
同時,大大多數互連解決方案不是設計為在大型叢集環境中使用時提供可靠的連線,從而導致資料傳輸中斷。由於EDC中的更多應用程式共享相同的互連,因此需要高階流量管理和應用程式分割槽來保持穩定性並減少系統停機時間。大多數互連解決方案不提供此類功能。
據維基百科,Mellanox正在深耕的InfiniBand是一個用於高效能運算的計算機網路通訊標準,它具有極高的吞吐量和極低的延遲,用於計算機與計算機之間的資料互連。InfiniBand也用作伺服器與儲存系統之間的直接或交換互連,以及儲存系統之間的互連。總體來看,這個技術有以下優點:
首先,被設計為嚴重依賴通訊處理的其他互連技術相比,InfiniBand被設計用於在IC中實現,以減輕CPU的通訊處理功能。 InfiniBand能夠相對於其他現有的互連技術提供優越的頻寬和延遲,並且每個連續的產品都保持了這一優勢。例如,我們目前的InfiniBand介面卡和交換機提供高達100Gb / s的頻寬,端到端延遲低於微秒。此外,InfiniBand還充分利用了PCI Express的I / O功能,即高速系統匯流排介面標準。
其次,根據獨立的基準測試報告,InfiniBand解決方案的延遲不到測試乙太網解決方案的一半。 光纖通道僅用作儲存互連,通常不會在延遲效能上進行基準測試。 HPC通常需要低延遲互連解決方案。 此外,雲,Web 2.0,儲存,機器學習和嵌入式市場中對延遲敏感的應用程式越來越多,因此,使用10Gb / s和更快的行業標準InfiniBand和乙太網解決方案有趨勢 ,能夠提供比1Gb / s乙太網更低的延遲。
第三,雖然其他互連需要使用單獨的電纜連線伺服器,儲存和通訊基礎設施裝置,但InfiniBand允許在單個電纜或背板互連上整合多個I / O,這對於刀鋒伺服器和嵌入式系統至關重要。 InfiniBand還通過單個連線整合了叢集,通訊,儲存和管理資料型別的傳輸。
第四,InfiniBand被開發為提供多個系統的高可擴充套件性。 InfiniBand在硬體中提供通訊處理功能,減輕了該任務的CPU,並使得新增到叢集的每個節點的全部資源利用率得以實現。
第五,InfiniBand是唯一在矽硬體中提供可靠的端到端資料連線的行業標準高效能互連解決方案之一。此外,InfiniBand還促進虛擬化解決方案的部署,從而允許多個應用程式在專用應用程式分割槽的同一互連上執行。因此,多個應用程式在穩定連線上同時執行,從而最大限度減少停機時間。
Mallanox公司擁有的從光模組、網絡卡、交換機、伺服器到有源光纜的全系列200G產品,同時他們還提供RDMA(Remote Direct Memory Access,遠端直接記憶體訪問)技術、 GPU Direct RDMA技術、SHARP(Scalable Hierarchical Aggregation and Reduction Protocol)技術、NVMe Over Fabric Target Offload技術、SHIELD(Self-Healing Technology)技術和Socket Direct和Multi-Host技術,相信也是Xilinx 看中他們的一個原因。
但我們應該看到,作為互連技術,IB與乙太網、光纖通道和其他專有技術(例如克雷公司的SeaStar)有強烈的競爭關係。缺少伺服器核心CPU的Mellanox被Xilinx收購,也許是一個不錯的選擇。