1. 程式人生 > >hadoop的架構模型(1.x,2.x的各種架構模型介紹)

hadoop的架構模型(1.x,2.x的各種架構模型介紹)

1.x的版本架構模型介紹

檔案系統核心模組:

NameNode:叢集當中的主節點,主要用於管理叢集當中的各種資料

secondaryNameNode:主要能用於hadoop當中元資料(後文解釋)資訊的輔助管理

DataNode:叢集當中的從節點,主要用於儲存叢集當中的各種資料

資料計算核心模組:

JobTracker:接收使用者的計算請求任務,並分配任務給從節點

TaskTracker:負責執行主節點JobTracker分配的任務

2.x的版本架構模型介紹

第一種:NameNode與ResourceManager單節點架構模型

檔案系統核心模組:

NameNode

:叢集當中的主節點,主要用於管理叢集當中的各種資料

secondaryNameNode:主要能用於hadoop當中元資料資訊的輔助管理

DataNode:叢集當中的從節點,主要用於儲存叢集當中的各種資料

資料計算核心模組:

ResourceManager:接收使用者的計算請求任務,並負責叢集的資源分配,以及計算任務的劃分

NodeManager:負責執行主節點ResourceManager分配的任務

NameNode單節點與ResourceManager高可用架構模型

檔案系統核心模組:

NameNode:叢集當中的主節點,主要用於管理叢集當中的各種資料

secondaryNameNode

:主要能用於hadoop當中元資料資訊的輔助管理

DataNode:叢集當中的從節點,主要用於儲存叢集當中的各種資料

資料計算核心模組:

ResourceManager:接收使用者的計算請求任務,並負責叢集的資源分配,以及計算任務的劃分,通過zookeeper實現ResourceManager的高可用

NodeManager:負責執行主節點ResourceManager分配的任務

第三種:NameNode高可用與ResourceManager單節點架構模型

檔案系統核心模組:

NameNode:叢集當中的主節點,主要用於管理叢集當中的各種資料,其中nameNode可以有兩個,形成高可用狀態

DataNode:叢集當中的從節點,主要用於儲存叢集當中的各種資料

JournalNode:檔案系統元資料資訊管理

資料計算核心模組:

ResourceManager:接收使用者的計算請求任務,並負責叢集的資源分配,以及計算任務的劃分

NodeManager:負責執行主節點ResourceManager分配的任務

第四種:NameNode與ResourceManager高可用架構模

檔案系統核心模組:

NameNode叢集當中的主節點,主要用於管理叢集當中的各種資料,一般都是使用兩個,實現HA高可用

JournalNode:元資料資訊管理程序,一般都是奇數個

DataNode:從節點,用於資料的儲存

資料計算核心模組:

ResourceManager:Yarn平臺的主節點,主要用於接收各種任務,通過兩個,構建成高可用

NodeManager:Yarn平臺的從節點,主要用於處理ResourceManager分配的任

HDFS 元資料,按型別分,主要包括以下幾個部分:

1、檔案、目錄自身的屬性資訊,例如檔名,目錄名,修改資訊等。

2、檔案記錄的資訊的儲存相關的資訊,例如儲存塊資訊,分塊情況,副本個數等。

3、記錄 HDFS Datanode 的資訊,用於 DataNode 的管理。

按形式分為記憶體元資料和元資料檔案兩種,分別存在記憶體和磁碟上

    HDFS 磁碟上元資料檔案分為兩類,用於持久化儲存:

    fsimage 映象檔案:是元資料的一個持久化的檢查點,包含 Hadoop 檔案系統中的所有

目錄和檔案元資料資訊,但不包含檔案塊位置的資訊。檔案塊位置資訊只儲存在記憶體中,是

datanode 加入叢集的時候,namenode 詢問 datanode 得到的,並且間斷的更新。

    Edits 編輯日誌:存放的是 Hadoop 檔案系統的所有更改操作(檔案建立,刪除或修改)

的日誌,檔案系統客戶端執行的更改操作首先會被記錄到 edits 檔案中。

    fsimage edits 檔案都是經過序列化的,在 NameNode 啟動的時候,它會將 fsimage

檔案中的內容載入到記憶體中,之後再執行 edits 檔案中的各項操作,使得記憶體中的元資料和

實際的同步,存在記憶體中的元資料支援客戶端的讀操作,也是最完整的元資料。

    當客戶端對 HDFS 中的檔案進行新增或者修改操作,操作記錄首先被記入 edits 日誌文

件中,當客戶端操作成功後,相應的元資料會更新到記憶體元資料中。因為 fsimage 檔案一般

都很大(GB 級別的很常見),如果所有的更新操作都往 fsimage 檔案中新增,這樣會導致系

統執行的十分緩慢。

    HDFS 這種設計實現著手於:一是記憶體中資料更新、查詢快,極大縮短了操作響應時間;

二是記憶體中元資料丟失風險頗高(斷電等),因此輔佐元資料映象檔案(fsimage+編輯日

志文件(edits)的備份機制進行確保元資料的安全。

    NameNode  維護整個檔案系統元資料。因此,元資料的準確管理,影響著 HDFS 提供檔案

儲存服務的能力

相關推薦

hadoop架構模型1.x2.x各種架構模型介紹

1.x的版本架構模型介紹 檔案系統核心模組: NameNode:叢集當中的主節點,主要用於管理叢集當中的各種資料 secondaryNameNode:主要能用於hadoop當中元資料(後文解釋)資訊的輔助管理 DataNode:叢集當中的從節點,主要用於儲存叢集當

anaconda 的環境管理共存下面2和3如何安裝庫

雖然anaconda下面自帶了眾多的常用的庫,但是有一些我們只能去下載和安裝。 環境是win7旗艦版。 糾結了好幾天,終於解決了在,anaconda2和anaconda3共存下面解決,向anaconda3安裝 庫 的問題。網上的找的好多教程都不靠譜。 我也

QML中繪圖1、Canvas 2、QPainter與QML結合

#include "alpainteditem.h" ALPaintedItem::ALPaintedItem(QQuickItem *parent)     : QQuickPaintedItem(parent),     m_brushColor(QColor(0, 0, 0 ,255)),     m_

Machine LearningStanford| 斯坦福大學機器學習筆記--第一週1.監督學習與無監督學習的介紹

以上例子中,總共有兩個特徵,即病人年齡和腫瘤大小。在別的ML問題中,經常會用到更多特徵,別人在研究這個問題時, 通常使用如下這些特徵:比如腫瘤的厚度,腫瘤細胞大小和形狀的一致性等等。 真正對於一些學習問題,用到的不只是三五個特徵,經常要用到無數多個特徵,非常多的屬性。所以,你的學習演算法要利用很多的屬性或特徵

常用模組3和之前的12一起食用效果更佳

本節主要內容1. 正則表示式2. re模組的使⽤3. ⼀堆練習 一、正則表示式   ⾸先, 我們在⽹⻚上進⾏註冊或者登陸的時候經常能看到⼀些格式上的錯誤提⽰. 比如:你在註冊百度賬號的時候https://passport.baidu.com/v2/?reg&regType=1&tpl=wk

常用模塊3和之前的12一起食用效果更佳

復雜 bsp 不容易 iter lin brush pla oom 格式 本節主要內容1. 正則表達式2. re模塊的使?3. ?堆練習 一、正則表達式   ?先, 我們在??上進?註冊或者登陸的時候經常能看到?些格式上的錯誤提?. 比如:你在註冊百度賬號的時候https:

軟體體系結構4+1模型尚未完成例子還沒有寫

第一節:檢視間的關聯                                      &nb

設隨機過程{Xt)=Acosωt+Θ),t∈一∞+∞)},其中AωΘ為相互獨立的實隨機變數其中A的均值為2方差為4,且Θ~Uπ)ω~U-5,5)試問Xt)是否為平穩過程

設隨機過程{X(t)=Acos(ωt+Θ),t∈(一∞,+∞)},其中A,ω,Θ為相互獨立的實隨機變數,其中A的均值為2,方差為4,且Θ~U(-π,π),ω~U(-5,5), 試問X(t)是否為平穩過

分別使用124次多項式迴歸模型在比薩訓練樣本上進行擬合

import matplotlib.pyplot as plt x_train = [[6], [8], [10], [14], [18]] y_train = [[7], [9], [13], [17.5], [18]] from sklearn.linear_mod

Hadoop偽分布式搭建本人新手歡迎大家多多指導和關照

web 生成 變量 open 密碼登錄 ssh 登陸 core 客戶 1.創建hadoop賬戶,創建用戶的home目錄並設置密碼。(useradd -m hadoop ) 2.本步驟可以不做(我是為了方便,給hadoop賦予了root權限)(vi /etc/sudoers

關聯模型1:n

time mes 解決 可能 spa 關聯 tle 模式 this 關聯模型 (1對n) ThinkPHP5.0 的關聯采用了對象化的操作模式,你無需繼承不同的模型類 只是把關聯定義成一個方法,並且直接通過當前模型對象的屬性名獲取定義的關聯數據。 關聯定義:一個user

MonkeyRunner環境搭建配置步驟1.安裝jdk,2.安裝python,3.安裝android sdk

img ads 系統 windows info beans android-s monk bean 前言:需要安裝jdk、python、android sdk 第一步:JDk的安裝以及配置 jdk下載地址:http://www.oracle.com/technetwork/

Hadoop安裝雜記1

hadoop 安裝 偽分布式模型 基礎一、Hadoop基礎 1、偽分布式模型(單節點) 1.1 配置centos7默認JDK1.7的環境變量 [root@master1 ~]# vim /etc/profile.d/java.sh i export JAVA_HOME=/usr [root@master1

五 創建道路模型1 道路三要素

com 簡單的 我們 alt png 有意 RR 我會 模型 今天給大家講一下在civil3d中如何創建道路模型,以及在創建道路模型時需要註意的一些事項。 在civil3d中創建道路模型叫做Create Corridor,這裏的Corridor泛指一切帶狀的對象,除了道路,

Spring Boot 1.X2.X優雅彩38平臺出租重啟實戰

main pau ble eas ren 超過 kill -9 tst 兼容 項目在彩38平臺出租 haozbbs.com Q1446595067 重新發布的過程中,如果有的請求時間比較長,還沒執行完成,此時重啟的話就會導致請求中斷,影響業務功能,優雅重啟可以保證在停止的時

javaleetcode717 1位元與2位元字元 即根據不同的長度對字元進行解碼1-bit and 2-bit Characters

題目描述: 有兩種特殊字元。第一種字元可以用一位元0來表示。第二種字元可以用兩位元(10 或 11)來表示。 現給一個由若干位元組成的字串。問最後一個字元是否必定為一個一位元字元。給定的字串總是由0結束。 示例1: 輸入: bits = [1, 0, 0]

機器學習與深度學習系列連載: 第二部分 深度學習十二卷積神經網路 3 經典的模型LeNet-5AlexNet VGGNetGoogLeNetResNet

卷積神經網路 3 經典的模型 經典的卷積神經網路模型是我們學習CNN的利器,不光是學習原理、架構、而且經典模型的超引數、引數,都是我們做遷移學習最好的源材料之一。 1. LeNet-5 [LeCun et al., 1998] 我們還是從CNN之父,LeCun大神在98年提出的模

Protocol Buffer 之 Java 使用基於Spring Boot 2.x

開發環境:使用Intellij IDEA + Maven + Spring Boot 2.x + JDK 8 1.在專案的pom.xml檔案下,引入protobuf的Jar開發包依賴;並且可以配置protobuf 的Maven外掛,對編寫的proto檔案編譯成Java檔案。

Redis 客戶端之Redisson 配置使用基於Spring Boot 2.x

開發環境:使用Intellij IDEA + Maven + Spring Boot 2.x + JDK 8 1.在專案的pom.xml檔案下,引入Redis和Redisson在Spring Boot 下的相關Jar包依賴。 <properties>