1. 程式人生 > >大資料hadoop叢集的搭建總結及步驟

大資料hadoop叢集的搭建總結及步驟

CentOS6.5mini版hadoop叢集搭建流程

   CentOS 7 系列:

       關閉防火牆:systemctl stop firewalld

       禁止防火牆開機啟動:systemctl disable firewalld

安裝虛擬機器的時候需要配置好主機名和網路

   主機名:master,slave1,slave2

   網路配置:

       1. 自動連線

       2. ipv4 手動

------------------ 三個都要執行的操作

-2.驗證網路配置是否正確:ifconfig

-1.驗證主機名是否正確:hostname

     master,slave1,slave2

0. 安裝 ssh 服務 (mini版要安裝ssh, 桌面版無須安裝 ssh )

     yum -y install openssh-server    安裝 ssh 伺服器

     yum -y install openssh-clients   安裝 ssh 客戶端

1. 分別關閉防火牆

     service iptables stop

2. 分別禁止防火牆開機啟動

     chkconfig iptables off

3. 分別配置 /etc/hosts 檔案,增加一下內容

     192.168.37.101    master

     192.168.37.102    slave1

     192.168.37.103    slave2

4. 分別執行 ssh-keygen 生成公鑰和私鑰

5. 分別執行 ssh-copy-id master /root/.ssh/id_rsa.pub 把公鑰傳送給 master

----------------- master 執行的操作

6. master 執行 cat /root/.ssh/authorized_keys 檢查是否收集到了所有的公鑰

7. master 執行命令把 authorized_keys 傳送給 slave1 和 slave2

     scp /root/.ssh/authorized_keys [email protected]:/root/.ssh/

     scp /root/.ssh/authorized_keys [email protected]:/root/.ssh/

------------------ 三個都要執行的操作

8. 分別執行,共 9 次

     ssh master   exit

     ssh slave1   exit

     ssh slave2   exit

   消除第一次登入的 yes

------------------ 以下操作都在 master 上進行

9. 上傳 jdk 到 master 的 /opt/SoftWare 資料夾

10.解壓 jdk tar -xvf jdk

11.配置 jdk 環境變數 vi /etc/profile

   在檔案最後追加一下內容:

     export JAVA_HOME=/opt/SoftWare/jdk1.8.0_141

     export JRE_HOME=/opt/SoftWare/jdk1.8.0_141/jre

     export CLASSPATH=.:$JRE_HOME/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

     export PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin

12.重新整理環境變數 source /etc/profile

13.驗證是否配置成功 java -version

15.上傳 hadoop 到 /opt/SoftWare 並解壓

16.進入解壓後的 hadoop 資料夾建立

     tmp,logs,hdfs,hdfs/name,hdfs/data 五個資料夾

16.使用 nodepad++ 進行配置檔案的修改,都在 hadoop-2.7.3/etc/hadoop

   1. hadoop-env.sh

      修改第 25 行的 ${JAVA_HOME} 為自己的 jdk 安裝目錄

   2. yarn-env.sh

      修改第 23 行,解註釋,修改路徑為自己的 jdk 安裝目錄

   3. salves

      修改 localhost 為 slave1 和 slave2

   4. mv mapred-site.xml.template mapred-site.xml 重新命名 mapred-site.xml.template

   5. 配置檔案參考附件

17.把 SoftWare 資料夾拷貝到 slave1 和 slave2 的 opt 下

   scp -r /opt/SoftWare/ [email protected]:/opt/

   scp -r /opt/SoftWare/ [email protected]:/opt/

18.把 /etc/profile 檔案拷貝到 slave1 和 slave2 的 /etc 下

   scp /etc/profile/ [email protected]:/etc/

   scp /etc/profile/ [email protected]:/etc/

------------------ 三個都要執行的操作

19.分別去 slave1 和 slave2 重新整理環境變數,驗證 java 是否配置成功

20.鎖定時間同步

   安裝時間同步軟體 ntpdate:yum -y install ntp ntpdate

   把時間寫入硬體進行鎖定:hwclock --systohc

----------------- master 執行的操作

21.進入 hadoop-2.7.3/bin 目錄

22.使用 ./hdfs namenode -format 進行格式化

   出現 /hdfs/name has been successfully formatted 表示成功

      不允許多次格式化,會導致叢集無法啟動

          如果出錯:

              1. 修改配置檔案

              2. 刪除 三個 上的 hdfs/name 和 hdfs/data 資料夾

              3. 把修改的內容傳送到 slave1 和 salve2 下

                 時刻保持 3 個虛擬機器的配置檔案是一致的

              4. 重新格式化

23.進入 hadoop-2.7.3/sbin 目錄,使用 ./start-dfs.sh 啟動 hdfs 服務

---------------- 三個虛擬機器執行的命令

  分別執行 jps 命令

   master:

       NameNode

       SecondaryNameNode

   slave1 和 slave2:

       DataNode

   訪問:http://192.168.37.101:50070

       Live Nodes      2

----------------- master 執行的命令

24.進入 hadoop-2.7.3/sbin 目錄,使用 ./start-yarn.sh 啟動 yarn 服務

---------------- 三個虛擬機器執行的命令

25.分別執行 jps 命令

   master:

       ResourceManager

   slave1 和 slave2:

       NodeManager

   訪問:http://192.168.37.101:8088

---------------- master 執行命令

26.進入 hadoop-2.7.3/sbin 目錄,使用 ./stop-dfs.sh 關閉 hdfs 服務

   進入 hadoop-2.7.3/sbin 目錄,使用 ./stop-yarn.sh 關閉 yarn 服務

   切記:關虛擬機器前先關閉 hadoop 叢集,不然可能會導致叢集的崩潰