本文針對hadoop叢集的搭建過程給予一個詳細的介紹。
參考視訊教程:https://www.bilibili.com/video/BV1tz4y127hX?p=1&share_medium=android&share_plat=android&share_session_id=10b66dfa-105f-4f89-9658-87945ddf0f89&share_source=QQ&share_tag=s_i×tamp=1630912128&unique_k=7lLQER
Windows課前環境準備:
1.安裝虛擬化軟體VMware(筆者採用的是15.5版本)
2.準備3臺linux虛擬機器
3.linux統一使用centos7.6 64位版本
種子檔案下載地址;http://mirrors.aliyun.com/centos/7.6.1810/isos/x86_64/CentOS-7-x86_64-DVD-1810.torren
一.上傳壓縮包並解壓
hadoop版本採用hadoop-3.1.2,將hadoop壓縮包上傳到第一臺伺服器並解壓(目錄為/kkb/install),第一臺機器執行cd /kkb/soft/,進入soft目錄下再執行tar -xzvf hadoop-3.1.4.tar.gz -C /kkb/install。
二.檢視hadoop支援的壓縮方式以及本地庫
第一臺機器執行以下命令
```shell
cd /kkb/install/hadoop-3.1.4/
bin/hadoop checknative
如果出現openssl為false,那麼==所有機器==線上安裝openssl即可,執行以下命令,虛擬機器聯網之後就可以線上進行安裝了
執行sudo yum -y install openssl-devel。
三.修改配置檔案
修改hadoop-env.sh
第一臺機器執行以下命令
```shell
cd /kkb/install/hadoop-3.1.4/etc/hadoop/
vim hadoop-env.sh
緊接著
`shell
export JAVA_HOME=/kkb/install/jdk1.8.0_141
修改core-site.xml
第一臺機器執行以下命令
```shell
vim core-site.xml
將xml檔案改為(要把原有的刪除,下面同理):
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://node01:8020</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/kkb/install/hadoop-3.1.4/hadoopDatas/tempDatas</value>
</property>
<!-- 緩衝區大小,實際工作中根據伺服器效能動態調整;預設值4096 -->
<property>
<name>io.file.buffer.size</name>
<value>4096</value>
</property>
<!-- 開啟hdfs的垃圾桶機制,刪除掉的資料可以從垃圾桶中回收,單位分鐘;預設值0 -->
<property>
<name>fs.trash.interval</name>
<value>10080</value>
</property>
</configuration>
修改hdfs-site.xml
第一臺機器執行以下命令
```shell
vim hdfs-site.xml
<configuration>
<!-- NameNode儲存元資料資訊的路徑,實際工作中,一般先確定磁碟的掛載目錄,然後多個目錄用,進行分割 -->
<!-- 叢集動態上下線
<property>
<name>dfs.hosts</name>
<value>/kkb/install/hadoop-3.1.4/etc/hadoop/accept_host</value>
</property>
<property>
<name>dfs.hosts.exclude</name>
<value>/kkb/install/hadoop-3.1.4/etc/hadoop/deny_host</value>
</property>
-->
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>node01:9868</value>
</property>
<property>
<name>dfs.namenode.http-address</name>
<value>node01:9870</value>
</property>
<!-- namenode儲存fsimage的路徑 -->
<property>
<name>dfs.namenode.name.dir</name>
<value>file:///kkb/install/hadoop-3.1.4/hadoopDatas/namenodeDatas</value>
</property>
<!-- 定義dataNode資料儲存的節點位置,實際工作中,一般先確定磁碟的掛載目錄,然後多個目錄用,進行分割 -->
<property>
<name>dfs.datanode.data.dir</name>
<value>file:///kkb/install/hadoop-3.1.4/hadoopDatas/datanodeDatas</value>
</property>
<!-- namenode儲存editslog的目錄 -->
<property>
<name>dfs.namenode.edits.dir</name>
<value>file:///kkb/install/hadoop-3.1.4/hadoopDatas/dfs/nn/edits</value>
</property>
<!-- secondarynamenode儲存待合併的fsimage -->
<property>
<name>dfs.namenode.checkpoint.dir</name>
<value>file:///kkb/install/hadoop-3.1.4/hadoopDatas/dfs/snn/name</value>
</property>
<!-- secondarynamenode儲存待合併的editslog -->
<property>
<name>dfs.namenode.checkpoint.edits.dir</name>
<value>file:///kkb/install/hadoop-3.1.4/hadoopDatas/dfs/nn/snn/edits</value>
</property>
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
<property>
<name>dfs.permissions.enabled</name>
<value>false</value>
</property>
<property>
<name>dfs.blocksize</name>
<value>134217728</value>
</property>
</configuration>
修改mapred-site.xml
第一臺機器執行以下命令
vim mapred-site.xml
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<property>
<name>mapreduce.job.ubertask.enable</name>
<value>true</value>
</property>
<property>
<name>mapreduce.jobhistory.address</name>
<value>node01:10020</value>
</property>
<property>
<name>mapreduce.jobhistory.webapp.address</name>
<value>node01:19888</value>
</property>
<property>
<name>yarn.app.mapreduce.am.env</name>
<value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value>
</property>
<property>
<name>mapreduce.map.env</name>
<value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value>
</property>
<property>
<name>mapreduce.reduce.env</name>
<value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value>
</property>
</configuration>
修改yarn-site.xml
第一臺機器執行以下命令
vim yarn-site.xml
<configuration>
<property>
<name>yarn.resourcemanager.hostname</name>
<value>node01</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<!-- 如果vmem、pmem資源不夠,會報錯,此處將資源監察置為false -->
<property>
<name>yarn.nodemanager.vmem-check-enabled</name>
<value>false</value>
</property>
<property>
<name>yarn.nodemanager.pmem-check-enabled</name>
<value>false</value>
</property>
</configuration>
修改workers檔案
第一臺機器執行以下命令
vim workers
原內容替換為(根據自己對三臺機器的命名來進行修改):
node01
node02
node03
四.建立檔案存放目錄
第一臺機器執行以下命令
node01機器上面建立以下目錄
mkdir -p /kkb/install/hadoop-3.1.4/hadoopDatas/tempDatas
mkdir -p /kkb/install/hadoop-3.1.4/hadoopDatas/namenodeDatas
mkdir -p /kkb/install/hadoop-3.1.4/hadoopDatas/datanodeDatas
mkdir -p /kkb/install/hadoop-3.1.4/hadoopDatas/dfs/nn/edits
mkdir -p /kkb/install/hadoop-3.1.4/hadoopDatas/dfs/snn/name
mkdir -p /kkb/install/hadoop-3.1.4/hadoopDatas/dfs/nn/snn/edits
五.安裝包的分發scp與rsync
在linux當中,用於向遠端伺服器拷貝檔案或者資料夾可以使用scp或者rsync,這兩個命令功能類似都是向遠端伺服器進行拷貝,只不過scp是全量拷貝,rsync可以做到增量拷貝,rsync的效率比scp更高一些
通過scp直接拷貝
scp(secure copy)安全拷貝
可以通過scp進行不同伺服器之間的檔案或者資料夾的複製
使用語法
scp -r sourceFile username@host:destpath
```
用法示例
scp -r hadoop-lzo-0.4.20.jar hadoop@node01:/kkb/
```
node01執行以下命令進行拷貝
cd /kkb/install/
scp -r hadoop-3.1.4/ node02:$PWD
scp -r hadoop-3.1.4/ node03:$PWD
六.配置hadoop的環境變數
三臺機器都要進行配置hadoop的環境變數
三臺機器執行以下命令
sudo vim /etc/profile
在末尾新增
export HADOOP_HOME=/kkb/install/hadoop-3.1.4
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
配置完成之後生效
source /etc/profile
第七步:格式化叢集
- 要啟動 Hadoop 叢集,需要啟動 HDFS 和 YARN 兩個叢集。
- 注意:首次啟動HDFS時,必須對其進行格式化操作。本質上是一些清理和準備工作,因為此時的 HDFS 在物理上還是不存在的。<font color='red'>格式化操作只有在首次啟動的時候需要,以後再也不需要了
執行
hdfs namenode -format
觀察生成的日誌判斷是否成功
八.叢集啟動
如果配置了 etc/hadoop/workers 和 ssh 免密登入,則可以使用程式指令碼啟動所有Hadoop 兩個叢集的相關程序,在主節點所設定的機器上執行。
- 啟動叢集
- 主節點node01節點上執行以下命令
start-dfs.sh
start-yarn.sh
# 已過時mr-jobhistory-daemon.sh start historyserver
mapred --daemon start historyserver
```
- 停止叢集(主節點node01節點上執行):
stop-dfs.sh
stop-yarn.sh
# 已過時 mr-jobhistory-daemon.sh stop historyserver
mapred --daemon stop historyserver
```
輸入jps檢視程序判斷是否啟動成功
| 伺服器IP | node01 | node02 | node03 |
| -------------- | ----------------- | ----------- | ----------- |
| HDFS | NameNode | | |
| HDFS | SecondaryNameNode | | |
| HDFS | DataNode | DataNode | DataNode |
| YARN | ResourceManager | | |
| YARN | NodeManager | NodeManager | NodeManager |
| 歷史日誌伺服器 | JobHistoryServer | | |
九.驗證叢集是否搭建成功
###### 1. 訪問web ui介面(根據自己設定的網路地址)
- hdfs叢集訪問地址
http://192.168.51.100:9870/
- yarn叢集訪問地址
http://192.168.51.100:8088
- jobhistory訪問地址:
http://192.168.51.100:19888
提醒:如果要關閉電腦時,清一定要按照以下順序操作,否則叢集可能會出問題==
- 關閉hadoop叢集
- 關閉虛擬機器
- 關閉電腦
筆者在安裝過程中遇到了很多問題,前前後後總共裝了有三次,怕出錯可以提前列印快照,最後預祝大家安裝順利。