4.Hadoop集群搭建之啟動
阿新 • • 發佈:2018-05-23
urn 生成 狀態 CP data 其他 sla site 驗證 註:
配置好Hadoop、HDFS、YARN、Zookeeper集群後,需要按照順序啟動。
前期準備
- 配置好Hadoop、HDFS、YARN、Zookeeper集群
- 先stop掉所有的hadoop服務
使用jps
命令查看進程,確保只有Jps
進程存在,沒有其他的Hadoop服務進程。若存在Hadoop服務進程,使用命令kill -9 進程id
來關閉進程。
1. 啟動zookeeper集群(分別在master、slave1、slave2上啟動zk)
在
~/zookeeper-3.4.5/bin/
下執行./zkServer.sh start
驗證:分別在節點上執行
./zkServer.sh status
可以查看節點狀態,一個leader,兩個follower。
2. 啟動journalnode(分別在在master、slave1、slave2上執行)
使用命令
hadoop-daemon.sh start journalnode
驗證:運行jps命令檢驗,master、slave1、slave2上多了JournalNode進程
3. 格式化HDFS(在master上執行即可)
- 執行命令
hdfs namenode -format
驗證:格式化後會在根據
core-site.xml
中的hadoop.tmp.dir
配置生成個文件,這裏我配置的是/home/hadoop/app/hadoop-2.4.1/data
/usr/local/hadoop-2.4.0/data
拷貝到slave1的/home/hadoop/app/hadoop-2.4.1/
下scp -r data/ slave1:/home/hadoop/app/hadoop-2.4.1
4. 格式化ZK(在master上執行即可)
hdfs zkfc -formatZK
5. 啟動HDFS(在master上執行即可)
start-dfs.sh
註:namenode
進程如果啟動失敗,手動執行命令hadoop-daemon.sh start namenode
啟動namenode
進程。
6. 啟動YARN(在master上操作)
start-yarn.sh
至此,Hadoop2.4.1配置完畢,可以統計瀏覽器訪問
http://192.168.1.201:50070
NameNode ‘192.168.1.201‘ (tandby)
http://192.168.1.202:50070
NameNode ‘192.168.1.202:9000‘ (actives)
4.Hadoop集群搭建之啟動