1. 程式人生 > >hadoop集群管理系統搭建安裝規劃說明

hadoop集群管理系統搭建安裝規劃說明

關於 RoCE mil 平臺 管理系 業務 好的 技術 超過

Hadoop分布式集群環境搭建是每個入門級新手都非常頭疼的事情,因為你可能花費了很久的時間在搭建運行環境,最終卻不知道什麽原因無法創建成功。但對新手來說,運行環境搭建不成功的概率還蠻高的。

在之前的分享文章中給hadoop新手入門推薦的大快搜索DKHadoop發行版,在運行環境安裝方面的確要比其他的發行版hadoop要簡單的多,畢竟DKHadoop是對底層重新集成封裝的,對與研究hadoop尤其是入門級新手來說是非常友好的一個發行版!關於DKHadoop的安裝留在後面再給大家分享,本篇就跟大家聊一聊關於【hadoop分布式集群環境搭建規劃】。

技術分享圖片

1、分布式機器架構圖

技術分享圖片

其中機器1主節點,機器2從節點,機器

3、機器4等都是計算節點。當主節點宕機後從節點代替主節點工作,正常狀態是從節點和計算節點一樣工作。這種架構設計保證數據完整性。

首先我們保證每臺計算節點上分別有一個DataNode節點和NodeManager節點。因為都是計算節點,真正幹活的。在數量上我們要保證。那麽NameNodeResourceManager是兩個非常重要的管理者,我們客戶端的請求,第一時間與NameNodeResourceManager打交道。NameNode負責管理HDFS文件系統的元數據,客戶端不管是讀文件還是寫文件,都要首先找到NameNode獲取文件的元數據,再進行文件的操作。ResourceManager也是如此,它負責管理集群中的資源和任務調度,你也可以把它視為

大數據操作系統。客戶端能否提交應用並運行,就看你的ResourceManager是否正常。

2、達到多大規模的數據,才值得用大數據的方式來處理?

第一,從數據量角度,但是並無確定的答案,一般定性角度來說,你覺得這個數據量單機處理不了,比如內存限制,時間過久等,就用集群,但是要降低時間,你的處理邏輯必須能分布式處理,定量就是一般數據或者未來的數據量會達到PB級別(可能GB)或以上就要用分布式,當然前提也是你的處理邏輯可以進行分布式。

第二,從算法角度,或者處理邏輯的時間復雜度來說,比如雖然你的數據記錄不是很多,但是你的算法或者處理邏輯的時間復雜度是n的平方,甚至更高,同時你的算法可以進行分布式設計,那麽就考慮用分布式,比如你的記錄雖然只有

1w, 但是時間復雜度確是n的平方,那麽你想想單機要多久,要是你的算法可以進行分布式處理,那麽就考慮用分布式。

3、制約大數據處理能力的幾個問題

a、網絡帶寬

網絡是聯接計算機的紐帶,這個紐帶當然越寬越好,這樣可以在計算機資源許可的情況下,在單位時間內傳輸更多的數據,讓計算機處理更多的數據。現在企業網絡中,普遍采用的多是百兆網絡,也有千兆,萬兆雖然有,但是用得不多。

b、磁盤

所有數據,不管它從哪裏來,最終都要存進不同的硬盤裏面,或者閃存盤。閃存盤的讀寫效率比硬盤高得多,但是缺點也明顯:價格貴、容量小。現在的存儲介質主要還是硬盤,硬盤有順序讀寫和隨機讀寫兩種模型。順序讀寫是磁頭沿著磁道,好象流水線一樣,有規律的向前滾動進行。隨機讀寫是磁頭跳躍著,找到磁道上留空的地方,把數據寫進去。很明顯,順序讀寫比隨機讀寫效率高,所以系統架構師在設計大數據存儲方案時,都是以順序讀寫為主要選擇。

c、計算機的數量

分布式的集群環境下,計算機的規模當然越大越好。這樣在數據等量的情況下,計算機數量越多,分配給每臺計算機的數據越少,處理效率自然就高了。但是計算機的數量也不是可以無限增加,集群對計算機規模的容納有一個峰值,超過這個峰值,再提升就很困難,處理不好還會下降。原因主要來自木桶短板效應、邊界效應、規模放大效應。根據多年前的一個測試,當時以Pentium 3Pentium 4芯片為基礎平臺,配合100M網絡,在上面運行LAXCUS大數據系統。當達到千臺計算機的規模時,瓶頸開始顯露出來。如果現在用新的X86芯片,加上更高速的網絡,應該是能夠容納更多的計算機。

d、代碼質量

這不是關鍵問題,但是是企業必須關註的一個問題。這和程序員編寫的計算機代碼質量有關。實際上,每個大數據產品都是半成品,它們只是提供了一個計算框架,要實際應用到企業生產中,裏面還有大量業務編碼需要程序員來實現。要使大數據應用達到高質量,技術負責人要做好前期設計,清楚和規範業務流程,程序員拿到方案後,用統一格式編寫代碼。這是雙方互相配合的過程。或者說,要做好協同和協調的事情。


hadoop集群管理系統搭建安裝規劃說明