1. 程式人生 > >linux 安裝hadoop 的四大執行模式——偽分佈模式(版本2.9.1)

linux 安裝hadoop 的四大執行模式——偽分佈模式(版本2.9.1)

hadoop偽分佈模式:hadoop的守護程序在同一臺伺服器上(具體定義請自行查詢)

前提:請在閱讀《linux 安裝hadoop 的四大執行模式——本地模式》的基礎上進行閱讀

1、將本地模式的配置檔案複製出來 建立軟連線 ,便於後續方便使用

執行命令:$>cp -r  hadoop/ local   (-r 代表檔案的遞迴複製)

刪除hadoop檔案  

命令使用:$>rm -rf hadoop

                   $>ln -s local/ hadoop

測試 輸入命令 $>hdfs      檢視本地模式是否能否使用

同樣為了方便後續的hadoop路徑輸入 :在soft檔案下建立hadoop的軟連線

$>sudo ln -s /home/hadoop/hadoop/dev/ hadoop    (因為我是使用的是hadoop使用者 如果使用root使用者 則不需要sudo)

備註記得修改環境變數(也可以不修改)

2、進入hadoop中 複製local 為pesudo(偽分散式)

 

3、進入pseudo資料夾下依次修改一下檔案 (最好到官網配置網上找到配置進行貼上)

官網位置:http://hadoop.apache.org/docs/r2.9.1/hadoop-project-dist/hadoop-common/SingleCluster.html

1>core-site.xml

<!--   hadoop檔案系統 -->
<property>
		<name>fs.defaultFS</name>
		<value>hdfs://localhost/</value>
	</property>

2>hdfs-site.xml

<!--  hdfs副本數  偽分佈 一個副本-->
<property>
			<name>dfs.replication</name>
			<value>1</value>
		</property>

3> mapred-site.xml    注意:cp mapred-site.xml.template mapred-site.xml

<!--  mapreduce框架名 -->
<property>
	<name>mapreduce.framework.name</name>
        <value>yarn</value>
</property>

4>yarn-site.xml

備註:注意 value中的h101 一定要修改為本機伺服器的hostname

<!--  yarn 管理機器 -->
<property>
	<name>yarn.resourcemanager.hostname</name>
	<value>h101</value>
</property>
<property>
	<name>yarn.nodemanager.aux-services</name>
	<value>mapreduce_shuffle</value>
</property>

 

4、修改軟連線:命令 $>ln -snf pseudo/ hadoop  (ln -snf (目標檔案) (軟連線))

5、格式化namenode $>hdfs namenode -format (不可缺少)

6、建議在啟動前進行SSH免登入設定,不然啟動時會多次輸入使用者密碼

連結:https://blog.csdn.net/weixin_39435629/article/details/84847685

 

7、任意目錄執行 $>start-all.sh       (啟動hadoop的守護程序)

輸入jps命令檢視hadoop啟動的守護程序

備註:(NodeManager 資料節點管理器)(NameNode 名稱節點)(SecondaryNameNode 輔助名稱節點)

(DataNode 資料節點)(ResourceManager 資源管理器)

6、測試

連結:http://192.168.44.101:50070    名稱節點webUI

名稱節點管理器 : 顯示相關hdfs中的資料以及名稱節點的狀態

資源管理區webUI

連結:http://192.168.44.101:8088/cluster

 

線上測試資料新增檢視,進一步確認資料節點可以使用:

檢視檔案:$>hdfs dfs -ls /

本機的hdfs資料節點沒任何資料

建立test檔案後,向檔案只中寫入資料 方便後續檢視

將test檔案防止到資料倉庫中

$>hdfs dfs -put test /

當顯示如此時說明整個hadoop的偽分佈模式基本OK。

備註:如果有搭建不成功的,建議自行檢視資料,或是給我留言,也可檢視我後續的文章