1. 程式人生 > >【Hadoop2.x】CentOS中jdk的安裝,hadoop2.7.3環境配置

【Hadoop2.x】CentOS中jdk的安裝,hadoop2.7.3環境配置

前提

  • VMware虛擬機器中已正確安裝CentOS系統,安裝過程可見CentOS 6 安裝
  • 下載好jdk-8u151-linux-x64.tar.gz,以及hadoop-2.7.3.tar.gz
  • 遠端傳輸檔案軟體,或命令列下rz傳輸,我用的是FlashFXP
  • 遠端工具用的是SecureSRT

安裝準備

\quad\quad為了在日後安裝和管理軟體方便,自己在Linux系統中建立兩個目錄,一個專門用來放壓縮包,一個用來專門放解壓檔案,這裡我在/opt目錄下建立了兩個資料夾softwareapps

  • root身份建立普通使用者,輸入命令useradd 使用者名稱
  • 給普通使用者設定密碼,輸入命令passwd 使用者名稱
  • 給普通使用者sudo許可權,輸入命令visudo,進行編輯,可自行百度
  • 將根目錄下的/opt目錄以及子目錄的擁有者和所屬組設定為自己的,輸入命令chown -R dany:dany /opt/

在這裡插入圖片描述

在這裡插入圖片描述

  • 以普通使用者或root使用者,在/opt目錄下建立兩個資料夾softwareapps,切換到根目錄下/opt目錄,輸入mkdir software apps

如果以普通使用者執行沒用,那麼可以在命令前加上sudo,即我們配置的sudo許可權來執行(後面步驟也同樣)

在這裡插入圖片描述

  • 將下載好的jdk-8u151-linux-x64.tar.gz,以及hadoop-2.7.3.tar.gz上傳伺服器中的software
    目錄
  • 通過FlashFXP上傳hadoop-2.7.3.tar.gz 在這裡插入圖片描述

在這裡插入圖片描述

在這裡插入圖片描述

如果使用普通使用者上傳是出現以上問題,原因就是/opt目錄的所有者不是普通使用者,也就是上面的步驟沒做好

  • 通過命令rz上傳jdk-8u151-linux-x64.tar.gz 在這裡插入圖片描述 在這裡插入圖片描述

jdk安裝

  • 1.解壓jdk-8u151-linux-x64.tar.gz到apps目錄下
tar -zxf jdk-8u151-linux-x64.tar.gz -C /opt/apps
# 加上v表示把解壓過程顯示
tar -zxvf jdk-8u151-linux-x64.tar.gz -C /opt/apps

在這裡插入圖片描述

  • 2.配置環境
  • jdk路徑為:/opt/apps/jdk1.8.0_151
  • sudo vi /etc/profile在檔案末尾加
  • 新增修改儲存完後,source /etc/profile 在這裡插入圖片描述

注:vi編輯器的使用可自行百度

hadoop2.7.3安裝

  • 1.解壓hadoop-2.7.3.tar.gz到/opt/apps目錄下
tar -zxf hadoop-2.7.3.tar.gz -C /opt/apps

在這裡插入圖片描述 在這裡插入圖片描述

  • 2.刪除share目錄下的doc目錄 在這裡插入圖片描述

  • 3.配置環境(使用NotePad++的外掛NppFTP,也可以vi編輯修改,但不怎麼方便) 在這裡插入圖片描述

  • 需要配置的檔案

【hadoop-env.sh配置】
# The java implementation to use.
export JAVA_HOME=/opt/modules/jdk1.8.0_151

【mapred-env.sh配置】
export JAVA_HOME=/opt/modules/jdk1.8.0_151

【yarn-env.sh配置】
# some Java parameters
export JAVA_HOME=/opt/modules/jdk1.8.0_151

【slaves配置】
# 主機名
dong-01.cym.com

【core-site.xml配置】
<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://192.168.21.51:8020</value>
        <!-- 此處IP也可以用主機名,但本機hosts檔案需要做好對映 -->
    </property>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/opt/modules/apache/hadoop-2.7.3/data/tmp</value>
    </property>	
</configuration>

【hdfs-site.xml配置】
<configuration>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
</configuration>

格式化命令:bin/hdfs namenode -format

在這裡插入圖片描述

在這裡插入圖片描述

  • 配置core-site.xml檔案 在這裡插入圖片描述

  • 配置hdfs-site.xml檔案 在這裡插入圖片描述

  • 修改slaves檔案,改為主機名 在這裡插入圖片描述

  • 格式化 在這裡插入圖片描述 在這裡插入圖片描述

  • 4.啟動命令

開啟:
sbin/hadoop-daemon.sh start namenode
sbin/hadoop-daemon.sh start datanode

上傳:
bin/hdfs dfs -put test.txt /
test.txt   需要上傳的檔案路徑以及檔案(這裡使用的是相對路徑,也可以使用絕對路徑)
/ 表示上傳到根目錄
  • 啟動 在這裡插入圖片描述

  • 本地web訪問介面 http://主機名:50070

  • 本地需要做好hosts對映 在這裡插入圖片描述

  • hdfs檔案系統 在這裡插入圖片描述

  • 5.上傳檔案

  • hdfs命令 在這裡插入圖片描述

  • bin/hdfs dfs 在這裡插入圖片描述

  • 上傳檔案,先vi編輯建立一個測試檔案

  • vi test.txt

1 2 3 4 5 6
2 3 4 5
3 4 5
5 6
8
  • bin/hdfs dfs -put test.txt /

  • 檢視web,hdfs檔案系統 在這裡插入圖片描述

之前為空,現在檔案已經上傳了

  • 命令檢視

  • bin/hdfs dfs -ls / 在這裡插入圖片描述

  • 6.Secondarynamenode配置

  • 修改hdfs-site.xml檔案 在這裡插入圖片描述

  • 關閉之前開啟的,重新啟動

  • killall java

  • sbin/hadoop-daemon.sh start secondarynamenode 在這裡插入圖片描述

  • 檢視 在這裡插入圖片描述

  • tree檢視,需要先安裝tree命令 在這裡插入圖片描述