linux 安裝hadoop 的四大執行模式——偽分佈模式(版本2.9.1)
hadoop偽分佈模式:hadoop的守護程序在同一臺伺服器上(具體定義請自行查詢)
前提:請在閱讀《linux 安裝hadoop 的四大執行模式——本地模式》的基礎上進行閱讀
1、將本地模式的配置檔案複製出來 建立軟連線 ,便於後續方便使用
執行命令:$>cp -r hadoop/ local (-r 代表檔案的遞迴複製)
刪除hadoop檔案
命令使用:$>rm -rf hadoop
$>ln -s local/ hadoop
測試 輸入命令 $>hdfs 檢視本地模式是否能否使用
同樣為了方便後續的hadoop路徑輸入 :在soft檔案下建立hadoop的軟連線
$>sudo ln -s /home/hadoop/hadoop/dev/ hadoop (因為我是使用的是hadoop使用者 如果使用root使用者 則不需要sudo)
備註記得修改環境變數(也可以不修改)
2、進入hadoop中 複製local 為pesudo(偽分散式)
3、進入pseudo資料夾下依次修改一下檔案 (最好到官網配置網上找到配置進行貼上)
官網位置:http://hadoop.apache.org/docs/r2.9.1/hadoop-project-dist/hadoop-common/SingleCluster.html
1>core-site.xml
<!-- hadoop檔案系統 --> <property> <name>fs.defaultFS</name> <value>hdfs://localhost/</value> </property>
2>hdfs-site.xml
<!-- hdfs副本數 偽分佈 一個副本-->
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
3> mapred-site.xml 注意:cp mapred-site.xml.template mapred-site.xml
<!-- mapreduce框架名 -->
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
4>yarn-site.xml
備註:注意 value中的h101 一定要修改為本機伺服器的hostname
<!-- yarn 管理機器 -->
<property>
<name>yarn.resourcemanager.hostname</name>
<value>h101</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
4、修改軟連線:命令 $>ln -snf pseudo/ hadoop (ln -snf (目標檔案) (軟連線))
5、格式化namenode $>hdfs namenode -format (不可缺少)
6、建議在啟動前進行SSH免登入設定,不然啟動時會多次輸入使用者密碼
連結:https://blog.csdn.net/weixin_39435629/article/details/84847685
7、任意目錄執行 $>start-all.sh (啟動hadoop的守護程序)
輸入jps命令檢視hadoop啟動的守護程序
備註:(NodeManager 資料節點管理器)(NameNode 名稱節點)(SecondaryNameNode 輔助名稱節點)
(DataNode 資料節點)(ResourceManager 資源管理器)
6、測試
連結:http://192.168.44.101:50070 名稱節點webUI
名稱節點管理器 : 顯示相關hdfs中的資料以及名稱節點的狀態
資源管理區webUI
連結:http://192.168.44.101:8088/cluster
線上測試資料新增檢視,進一步確認資料節點可以使用:
檢視檔案:$>hdfs dfs -ls /
本機的hdfs資料節點沒任何資料
建立test檔案後,向檔案只中寫入資料 方便後續檢視
將test檔案防止到資料倉庫中
$>hdfs dfs -put test /
當顯示如此時說明整個hadoop的偽分佈模式基本OK。
備註:如果有搭建不成功的,建議自行檢視資料,或是給我留言,也可檢視我後續的文章