1. 程式人生 > >HDFS集群安裝部署

HDFS集群安裝部署

pps ext 生效 boot art 命令 修改 profile ati

1-> 集群的準備工作

1)關閉防火墻(進行遠程連接)

systemctl stop firewalld systemctl -disable firewalld

2)永久修改設置主機名 vi /etc/hostname

註意:需要重啟生效->reboot

3)配置映射文件

vi /etc/hosts

#127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4

#::1 localhost localhost.localdomain localhost6 localhost6.localdomain6 192.168.50.183 hd09-01 192.168.50.184 hd09-02 192.168.50.185 hd09-03 2-> 安裝jdk

1)上傳tar包 alt+p 2)解壓tar包 tar -zxvf jdk 3)配置環境變量 vi /etc/profile export JAVA_HOME=/root/hd/jdk1.8.0_141 export PATH=$PATH:$JAVA_HOME/bin 註意:加載環境變量 source /etc/profile 4)發送到其它機器 scp -r hd/jdk1.8.0_141/ hd09-03:hd/jdk1.8.0_141 scp -r /etc/profile hd09-02:/etc 註意:加載環境變量 source /etc/profile 5)配置ssh免密登錄 -》ssh-keygen 生成密鑰對 -》 ssh-copy-id 自己 ssh-copy-id 其它 ssh-copy-id 其它 3-> 安裝HDFS集群

1) 修改hadoop-env.sh export JAVA_HOME=/root/apps/jdk1.8.0_60

2) 修改core-site.xml

<configuration> //配置hdfs <property> <name>fs.defaultFS</name> <value>hdfs://hd-01:9000</value> </property> </configuration>

3) 修改hdfs-site.xml

<configuration> //配置元數據存儲位置 <property> <name>dfs.namenode.name.dir</name> <value>/root/hd/dfs/name</value> </property> //配置數據存儲位置 <property> <name>dfs.datanode.data.dir</name> <value>/root/hd/dfs/data</value> </property> </configuration> 4)格式化namenode hadoop namenode -format 5)分發hadoop到其它機器 scp -r ~/hd/hadoop-2.8.4/ hd09-02:/root/hd/ scp -r ~/hd/hadoop-2.8.4/ hd09-03:/root/hd/ 6)配置hadoop環境變量 export JAVA_HOME=/root/hd/jdk1.8.0_141 export HADOOP_HOME=/root/hd/hadoop-2.8.4 export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin 6)分發hadoop環境變量 scp -r /etc/profile hd09-02:/etc 註意:加載環境變量 source /etc/profile 7)啟動namenode hadoop-daemon.sh start namenode 8)啟動datanode hadoop-daemon.sh start datanode 9)訪問namenode提供的web端口:50070 4-> 自動批量的啟動腳本

  1. 1)修改配置文件slaves(01機器也要在hadoop01) hd09-02 hd09-03 2)執行啟動命令 start-dfs.sh start-dfs.sh

HDFS集群安裝部署