【Hadoop2.x】CentOS中jdk的安裝,hadoop2.7.3環境配置
阿新 • • 發佈:2018-12-18
前提
- VMware虛擬機器中已正確安裝CentOS系統,安裝過程可見CentOS 6 安裝
- 下載好jdk-8u151-linux-x64.tar.gz,以及hadoop-2.7.3.tar.gz
- 遠端傳輸檔案軟體,或命令列下
rz
傳輸,我用的是FlashFXP - 遠端工具用的是SecureSRT
安裝準備
為了在日後安裝和管理軟體方便,自己在Linux系統中建立兩個目錄,一個專門用來放壓縮包,一個用來專門放解壓檔案,這裡我在/opt
目錄下建立了兩個資料夾software
和apps
。
- 以
root
身份建立普通使用者,輸入命令useradd 使用者名稱
- 給普通使用者設定密碼,輸入命令
passwd 使用者名稱
- 給普通使用者
sudo
許可權,輸入命令visudo
,進行編輯,可自行百度 - 將根目錄下的
/opt
目錄以及子目錄的擁有者和所屬組設定為自己的,輸入命令chown -R dany:dany /opt/
- 以普通使用者或root使用者,在
/opt
目錄下建立兩個資料夾software
和apps
,切換到根目錄下/opt
目錄,輸入mkdir software apps
如果以普通使用者執行沒用,那麼可以在命令前加上
sudo
,即我們配置的sudo許可權來執行(後面步驟也同樣)
- 將下載好的jdk-8u151-linux-x64.tar.gz,以及hadoop-2.7.3.tar.gz上傳伺服器中的
software
- 通過FlashFXP上傳hadoop-2.7.3.tar.gz
如果使用普通使用者上傳是出現以上問題,原因就是
/opt
目錄的所有者不是普通使用者,也就是上面的步驟沒做好
- 通過命令
rz
上傳jdk-8u151-linux-x64.tar.gz
jdk安裝
- 1.解壓jdk-8u151-linux-x64.tar.gz到
apps
目錄下
tar -zxf jdk-8u151-linux-x64.tar.gz -C /opt/apps
# 加上v表示把解壓過程顯示
tar -zxvf jdk-8u151-linux-x64.tar.gz -C /opt/apps
- 2.配置環境
- jdk路徑為:/opt/apps/jdk1.8.0_151
sudo vi /etc/profile
在檔案末尾加- 新增修改儲存完後,
source /etc/profile
注:vi編輯器的使用可自行百度
hadoop2.7.3安裝
- 1.解壓hadoop-2.7.3.tar.gz到
/opt/apps
目錄下
tar -zxf hadoop-2.7.3.tar.gz -C /opt/apps
-
2.刪除
share
目錄下的doc
目錄 -
3.配置環境(使用NotePad++的外掛NppFTP,也可以
vi
編輯修改,但不怎麼方便) -
需要配置的檔案
【hadoop-env.sh配置】
# The java implementation to use.
export JAVA_HOME=/opt/modules/jdk1.8.0_151
【mapred-env.sh配置】
export JAVA_HOME=/opt/modules/jdk1.8.0_151
【yarn-env.sh配置】
# some Java parameters
export JAVA_HOME=/opt/modules/jdk1.8.0_151
【slaves配置】
# 主機名
dong-01.cym.com
【core-site.xml配置】
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://192.168.21.51:8020</value>
<!-- 此處IP也可以用主機名,但本機hosts檔案需要做好對映 -->
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/opt/modules/apache/hadoop-2.7.3/data/tmp</value>
</property>
</configuration>
【hdfs-site.xml配置】
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
格式化命令:bin/hdfs namenode -format
-
配置core-site.xml檔案
-
配置hdfs-site.xml檔案
-
修改slaves檔案,改為主機名
-
格式化
-
4.啟動命令
開啟:
sbin/hadoop-daemon.sh start namenode
sbin/hadoop-daemon.sh start datanode
上傳:
bin/hdfs dfs -put test.txt /
test.txt 需要上傳的檔案路徑以及檔案(這裡使用的是相對路徑,也可以使用絕對路徑)
/ 表示上傳到根目錄
-
啟動
-
本地web訪問介面
http://主機名:50070
-
本地需要做好hosts對映
-
hdfs檔案系統
-
5.上傳檔案
-
hdfs命令
-
bin/hdfs dfs
-
上傳檔案,先
vi
編輯建立一個測試檔案 -
vi test.txt
1 2 3 4 5 6
2 3 4 5
3 4 5
5 6
8
-
bin/hdfs dfs -put test.txt /
-
檢視web,hdfs檔案系統
之前為空,現在檔案已經上傳了
-
命令檢視
-
bin/hdfs dfs -ls /
-
6.Secondarynamenode配置
-
修改hdfs-site.xml檔案
-
關閉之前開啟的,重新啟動
-
killall java
-
sbin/hadoop-daemon.sh start secondarynamenode
-
檢視
-
tree
檢視,需要先安裝tree
命令