1. 程式人生 > >HDFS完全分散式配置

HDFS完全分散式配置

準備階段,每個節點安裝jdk,配置環境變數,注意安裝的位置要一致
注意:
1.每臺機器的防火牆關閉
2.每臺機器配置時間自動同步,或者簡單點每臺機器時間保持一致(相差不超過30秒)
yum -y install ntpdate
/usr/sbin/ntpdate -u pool.ntp.org 
               */10 * * * *  /usr/sbin/ntpdate -u pool.ntp.org >/dev/null 2>&1
3.網路互通,配置/etc/hosts,能夠互ping,便於訪問
        4.vi /etc/sysconfig/network,更改每個節點hostname的值


1.修改解壓目錄下的etc/hadoop中的hadoop-env.sh檔案
export JAVA_HOME=/opt/soft/jdk1.7.0_79
export HADOOP_PREFIX=/opt/soft/hadoop-2.5.1
2.修改etc/hadoop下的core-site.xml和hdfs-site.xml mapred-site.xml yarn-site.xml


core-site.xml


<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://node1:9000</value>
</property>
</configuration>

分發到其他節點

scp core-site.xml [email protected]:/opt/hadoop/etc/hadoop

scp core-site.xml [email protected]:/opt/hadoop/etc/hadoop



hdfs-site.xml:


<configuration>
<property>
<name>dfs.namenode.name.dir</name>
<value>/opt/data/dfs</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/opt/data/data</value>
</property>
<property>
<name>dfs.replication</name>
<value>3</value>
</property>

</configuration>

分發到其他節點

scp hdfs-site.xml [email protected]:/opt/hadoop/etc/hadoop

scp hdfs-site.xml [email protected]:/opt/hadoop/etc/hadoop




mapred-site.xml:


<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>

分發到其他節點

scp mapred-site.xml [email protected]:/opt/hadoop/etc/hadoop

scp mapred-site.xml [email protected]:/opt/hadoop/etc/hadoop



yarn-site.xml:


<configuration>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
</configuration>

分發到其他節點

scp [email protected]:/opt/hadoop/etc/hadoop

scp [email protected]:/opt/hadoop/etc/hadoop



3.配置slaves
node1
node2
node3

分發到其他節點

scp slaves  [email protected]:/opt/hadoop/etc/hadoop

scp slaves  [email protected]:/opt/hadoop/etc/hadoop


4.配置無密碼登陸(每個節點都執行)
ssh-keygen後面一路enter
(每個節點都執行)均在全部回話中執行
ssh-copy-id -i /root/.ssh/id_rsa.pub [email protected]
ssh-copy-id -i /root/.ssh/id_rsa.pub [email protected]
ssh-copy-id -i /root/.ssh/id_rsa.pub [email protected]


5.將配置好的hadoop分發到各個節點
6.format格式化
bin/hdfs namenode -format
7.啟動
sbin/start-all.sh
8.驗證
啟動完成後執行hadoop fs -mkdir /user
再執行hadoop  fs -ls /能看到剛建立的目錄即可

相關推薦

HDFS完全分散式配置

準備階段,每個節點安裝jdk,配置環境變數,注意安裝的位置要一致 注意:1.每臺機器的防火牆關閉2.每臺機器配置時間自動同步,或者簡單點每臺機器時間保持一致(相差不超過30秒)yum -y install ntpdate/usr/sbin/ntpdate -u pool.n

完全分散式配置步驟

完全分散式: 1.準備三臺客戶機(配置IP,配置主機名...) 2.安裝jdk,安裝hadoop 3.配置JAVA_HOME和HADOOP_HOME 4.使每個節點上的環境變數生效(source /etc/profile) 5.準備分發指令碼 xsync 6.明確叢集的配置 7.修改配置檔案 &nb

Hadoop完全分散式配置問題

關於搭建Hadoop完全分散式時配置的問題 配置hadoop的配置檔案core-site.xml, hdfs-site.xml, mapred-site.xml,yarn-site.xml,slaves(workers)(都在Hadoop安裝目錄/etc/hadoop資料夾下) 1、co

HDFS完全分散式搭建步驟

1.準備階段 分散式叢集規劃 準備4個Linux作業系統,並配置好IP地址,將NameNode在Hadoop1節點上啟動,SecondaryNameNode和DataNode在Hadoop2節點上啟動,其餘兩個DataNode分別在Hadoop3和Hadoop4節點

CentOS 6.5環境下搭建HDFS完全分散式

準備工作        首先需要準備4臺CentOS6.5虛擬機器,並且將網路與JDK配置完全,如需配置JDK詳見上次部落格。        注意:在安裝JDK時需要先確認一下系統中是否自帶JDK,控制檯輸入java -version如果顯示了JDK版本,最好

HDFS完全分散式搭建

目錄 前期配置 時間同步 配置免密登入 配置/etc/hosts(所有節點內) 修改hadoop配置檔案 將配置好的安裝包分發到其他節點上 JDK配置(所有節點) 格式化NameNode並啟動HDFS 可能遇到的問題

大資料學習-Hadoop生態章---HDFS完全分散式(1.X版本)搭建及eclipse外掛整合

完全分散式搭建(1.x版) 一.環境的準備(詳情參考Linux章) Linux 環境 JDK 準備至少3臺機器(通過克隆虛擬機器;配置好網路JDK 時間 hosts,保證節點間能互ping通) 時間同步 (ntpdate time.nist.gov)

8.大資料學習之旅——hadoop-Hadoop完全分散式配置

Hadoop完全分散式配置 關閉防火牆 修改主機名 配置hosts檔案。將需要搭建叢集的主機全部配置到hosts檔案中 192.168.32.138 hadoop01 192.168.32.139 hadoop02 192.168.32.14

hbase完全分散式配置

第一步:修改hbase的配置檔案hbase-site.xml 加入以下內容:<property>  <name>hbase.rootdir</name>  <value>hdfs://master:8020/hbase</

Hadoop完全分散式HA配置hdfs zkfc -formatZK錯誤

16/05/08 21:01:39 INFO zookeeper.ClientCnxn: Opening socket connection to server node2/192.168.17.3:2181. Will not attempt to authenticate using SASL (unk

完全分散式Hadoop】(二)HDFS、YARN以及HA高可用概念介紹

一、HDFS-Hadoop分散式檔案系統 HDFS 採用Master/Slave的架構來儲存資料,這種架構主要由四個部分組成,分別為HDFS Client、NameNode、DataNode和Secondary NameNode。下面我們分別介紹這四個組成部分 1、Client:就

Docker實戰之安裝配置HBase-1.2.2完全分散式叢集

環境配置 VM:VMware Workstation OS:Ubuntu 14.04  LTS HBASE:hbase-1.2.2 HBase叢集規劃 172.17.0.5   hmaster  172.17.0.6&

Docker實戰之安裝配置Hadoop-2.5.2完全分散式叢集

環境配置 VM:VMware Workstation OS:Ubuntu 14.04  LTS Hadoop:hadoop-2.5.2 Hadoop叢集規劃 172.17.0.2    hadoop-master 172.17.

HDFS高可用完全分散式搭建步驟

一、準備階段 分散式思想 分散式叢集規劃 主機名 IP地址 NN-1 NN-2 DN ZK ZKFC JNN

手把手教你配置Hbase完全分散式環境

HBase配置相對比較簡單,下面的教程也是基於我上面2篇Hadoop配置的環境下繼續往下新增HBase的分散式配置,這次我的HBase安裝目錄放在跟Hadoop同一目錄下面,節點資訊跟我前一篇Hadoop完全分散式配置完全一樣,不清楚的話可以參考我那篇文章。 HBase根目錄:/usr/mywi

8.Hadoop的學習(Hadoop的配置--搭建完全分散式)

 搭建偽分散式請檢視本部落格https://blog.csdn.net/wei18791957243   裡面的三個搭建偽分散式的部落格 前提是偽分散式可以正常啟動。 點開虛擬機器上邊的選單欄中的虛擬機器內的快照功能。(快照:可以及時儲存當前操

ZooKeeper完全分散式安裝與配置

Apache ZooKeeper是一個為分散式應用所設計開源協調服務,其設計目是為了減輕分散式應用程式所承擔的協調任務。可以為使用者提供同步、配置管理、分組和命名服務。   1.環境說明 在三臺裝有centos6.5(64位)伺服器上安裝ZooKeeper,官網建議至少3個節點,本

HDFS高可用的完全分散式搭建流程

HDFS高可用的完全分散式設計架構圖 HDFS的高可用指的是HDFS持續對各類客戶端提供讀、寫服務的能力,因為客戶端對HDFS的讀、寫操作之前都要訪問Namenode伺服器,客戶端只有從Namenode獲取元資料之後才能繼續進行讀、寫。所以HDFS的高可用的關

HDFS HA完全分散式搭建

叢集規劃 配置免密登入 node01->node01 node01->node02 node01->node03 node01->node04 node02->no

大資料之四 hadoop HDFS HA 高可用的完全分散式

HDFS HA HA即為High Availability,用於解決NameNode單點故障問題,該特性通過熱備的方式為主NameNode提供一個備用者,一旦主NameNode出現故障,可以迅速切換至備NameNode,從而實現對外提供更穩定的服務 Second