1. 程式人生 > >hadoop單節點的配置

hadoop單節點的配置

一、 hadoop的配置

離開安全模式

 hadoop  dfsadmin  –safemode  leave

修改root使用者密碼

sudo passwd 設定root的密碼

passwd 設定自己的密碼

關閉ubuntu的防火牆: ufw disable

普通使用者

一、新增hadoop使用者組和hadoop使用者

建立hadoop使用者組:sudo addgroup hadoop

建立hadoop使用者:  sudo adduser -ingroup hadoop hadoop

二、安裝ssh

安裝命令:sudo apt-get install openssh-server

啟動服務:sudo /etc/init.d/ssh start

檢視服務是否啟動:ps -e | grep ssh

修改配置檔案,允許root使用者遠端登陸:

開啟"終端視窗",輸入"sudo gedit /etc/ssh/sshd_config"-->回車-->把配置檔案中的"PermitRootLogin without-password"加一個"#",把它註釋掉-->再增加一句"PermitRootLogin yes"-->儲存,修改成功。

 

1、免密碼登入

生成金鑰

[email protected]:~/Hadoop# ssh-keygen -t rsa -P ""

將公鑰追加到authorized_keys

[email protected]:~/.ssh# cat  ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

[email protected]:~/.ssh# ls

authorized_keys  id_rsa  id_rsa.pub

2、配置hadoop環境變數

[email protected]:/usr/bin# vi  /etc/profile

export JAVA_HOME=/home/hadoop/setup/jdk1.8.0_131

export HADOOP_HOME=/home/hadoop/setup/hadoop-2.7.3

export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

[email protected]:/usr/bin# source  /etc/ profile

檢視環境:

[email protected]:/usr/bin# echo $PATH

 

3、配置Hadoop偽分散式的步驟(要修改5個檔案)

1)、hadoop-env.sh

 25行 export JAVA_HOME=/root/app/jdk1.8.0_131

 

2)、core-site.xml

<configuration>

        <property>

<!-- 指定HDFS老大(namenode)的通訊地址 -->

                <name>fs.defaultFS</name>

                <value>hdfs://hadoop01:9000</value>

        </property>

        <property>

<!-- 指定hadoop執行時產生檔案的儲存路徑 -->      

                <name>hadoop.tmp.dir</name>

                <value>/Hadoop/setup/tmp</value>

        </property>

</configuration>

 

 

 

3)、hdfs-site.xml

<configuration>

        <property>

<!-- 設定hdfs副本數量 -->

                <name>dfs.replication</name>

                <value>1</value>

        </property>

 

 

 

     <property>

<!--用於確定將HDFS檔案系統的元資訊儲存在什麼目錄下-->

         <name>dfs.namenode.name.dir</name>

         <value>file:/Hadoop/setup/dfs/name</value>

    </property>

     <property>

<!--用於確定將HDFS檔案系統的資料儲存在什麼目錄下-->

        <name>dfs.datanode.data.dir</name>

         <value>file:/Hadoop/setup/dfs/data</value>

     </property>

</configuration>

 

4)、maprea-site.xml

<configuration>

<!-- 通知框架MR使用YARN -->

        <property>

                <name>mapreduce.framework.name</name>

                <value>yarn</value>

        </property>

</configuration>

 

5)、yarn-site.xml

<configuration>

<!-- Site specific YARN configuration properties -->

        <property>

<!-- NodeManager取資料的方式是mapreduce_shuffle -->

                <name>yarn.nodemanager.aux-services</name>

                <value>mapreduce_shuffle</value>

        </property>

 

 

        <property>

<!-- 指定yarn的老大的地址(resourcemanager-->

                <name>yarn.resourcemanager.hostname</name>

                <value>hadoop01</value>

        </property>

</configuration>

 

 

4、格式化hdfs

[email protected]:~/Hadoop/hadoop-2.7.3/etc/hadoop# hdfs namenode -format

 

5、啟動hadoop

啟動namenodedatanode: start-dfs.sh 

啟動yarnstart-yarn.sh

啟動全部:start-all.sh

start-all.sh 啟動所有的Hadoop守護程序。包括NameNodeSecondary NameNodeDataNodeJobTrackerTaskTrack
stop-all.sh 停止所有的Hadoop守護程序。包括NameNodeSecondary NameNodeDataNodeJobTrackerTaskTrack
start-dfs.sh 啟動Hadoop HDFS守護程序NameNodeSecondaryNameNodeDataNode
stop-dfs.sh 停止Hadoop HDFS守護程序NameNodeSecondaryNameNodeDataNode
hadoop-daemons.sh start namenode 單獨啟動NameNode守護程序
hadoop-daemons.sh stop namenode 單獨停止NameNode守護程序
hadoop-daemons.sh start datanode 單獨啟動DataNode守護程序
hadoop-daemons.sh stop datanode 單獨停止DataNode守護程序
hadoop-daemons.sh start secondarynamenode 單獨啟動SecondaryNameNode守護程序
hadoop-daemons.sh stop secondarynamenode 單獨停止SecondaryNameNode守護程序
start-mapred.sh 啟動Hadoop MapReduce守護程序JobTrackerTaskTracker
stop-mapred.sh 停止Hadoop MapReduce守護程序JobTrackerTaskTracker
hadoop-daemons.sh start jobtracker 單獨啟動JobTracker守護程序
hadoop-daemons.sh stop jobtracker 單獨停止JobTracker守護程序
hadoop-daemons.sh start tasktracker 單獨啟動TaskTracker守護程序
hadoop-daemons.sh stop tasktracker 單獨啟動TaskTracker守護程序