1. 程式人生 > >hadoop之hdfs的3個節點以同一程序啟動

hadoop之hdfs的3個節點以同一程序啟動

HDFS三個程序啟動都以xxxxxxxx啟動:

以我自己的機器名稱為例: HDFS三個程序啟動以hadoop001啟動:etc/hadoop目錄下設定

之前在部署hdfs時候修改了core-site.xml檔案slaves檔案 (1)在core-site.xml檔案中修改fs.defaultFS引數為hadoop001,使NameNode程序以hadoop001啟動。 (2)在slaves檔案中將localhost改為hadoop001,使DataNode程序以hadoop001啟動。 (3)SecondaryNameNode程序預設是0.0.0.0:0啟動,我們就值需修改SecondaryNameNode程序 首先在官網hdfs元件服務hdfs-default.xml找dfs.namenode.secondary.http-address和dfs.namenode.secondary.https-address,檢視並複製 在這裡插入圖片描述

在這裡插入圖片描述 進入到hdfs-site .xml檔案 [[email protected] hadoop-2.6.0-cdh5.7.0]$ vi hdfs-site .xml 因為之前hdfs-site .xml檔案也是修改過的,不能刪掉任何內容,只需要在最後一個 </ configuration>前面新增以下內容: < property> < name>dfs.namenode.secondary.http-address</ name> < value>hadoop001:50090</ value> </ property> < property> < name>dfs.namenode.secondary.https-address</ name> < value>hadoop001:50091</ value> </ property> 在這裡插入圖片描述

之後重啟hdfs:可以看到SecondaryNameNode是由啟動的: [[email protected] hadoop-2.6.0-cdh5.7.0]$ sbin/start-dfs.sh 在這裡插入圖片描述

因為我在設定之前沒有關掉hdfs,所以重啟時NameNode和DataNode是已經在執行狀態!

over✌

----------------------------------------------------------未完待續----------------------------------------------