1. 程式人生 > >4.Hadoop集群搭建之啟動

4.Hadoop集群搭建之啟動

urn 生成 狀態 CP data 其他 sla site 驗證

配置好Hadoop、HDFS、YARN、Zookeeper集群後,需要按照順序啟動。

前期準備

  • 配置好Hadoop、HDFS、YARN、Zookeeper集群
  • 先stop掉所有的hadoop服務

使用jps命令查看進程,確保只有Jps進程存在,沒有其他的Hadoop服務進程。若存在Hadoop服務進程,使用命令kill -9 進程id來關閉進程。

1. 啟動zookeeper集群(分別在master、slave1、slave2上啟動zk)

  • ~/zookeeper-3.4.5/bin/下執行

      ./zkServer.sh start
  • 驗證:分別在節點上執行

     ./zkServer.sh status

    可以查看節點狀態,一個leader,兩個follower。

2. 啟動journalnode(分別在在master、slave1、slave2上執行)

  • 使用命令hadoop-daemon.sh start journalnode

  • 驗證:運行jps命令檢驗,master、slave1、slave2上多了JournalNode進程

3. 格式化HDFS(在master上執行即可)

  • 執行命令hdfs namenode -format
  • 驗證:格式化後會在根據core-site.xml中的hadoop.tmp.dir配置生成個文件,這裏我配置的是/home/hadoop/app/hadoop-2.4.1/data

    ,然後將/usr/local/hadoop-2.4.0/data拷貝到slave1的/home/hadoop/app/hadoop-2.4.1/

      scp -r data/ slave1:/home/hadoop/app/hadoop-2.4.1

4. 格式化ZK(在master上執行即可)

      hdfs zkfc -formatZK

5. 啟動HDFS(在master上執行即可)

      start-dfs.sh

註:namenode進程如果啟動失敗,手動執行命令hadoop-daemon.sh start namenode啟動namenode進程。

6. 啟動YARN(在master上操作)

      start-yarn.sh

至此,Hadoop2.4.1配置完畢,可以統計瀏覽器訪問

http://192.168.1.201:50070
NameNode ‘192.168.1.201‘ (tandby)
http://192.168.1.202:50070
NameNode ‘192.168.1.202:9000‘ (actives)

4.Hadoop集群搭建之啟動