1. 程式人生 > >Hadoop 2.7.3安裝與配置

Hadoop 2.7.3安裝與配置

一、JDK的安裝與配置

(1)、自行前往Oracle官網下載JDK

(2)、下載後解壓到相關路徑,配置環境變數:

vi /etc/profile

新增如下配置

export JAVA_HOME=/usr/lib/jvm/java-8-oracle
export JAVA_BIN=$JAVA_HOME/bin
export JAVA_LIB=$JAVA_HOME/lib
export CLASSPATH=.:$JAVA_LIB/tools.jar:$JAVA_LIB/dt.jar
export PATH=$PATH:$JAVA_HOME/bin

(3)、重新整理配置

source /etc/profile

二、配置SSH

sudo apt-get install ssh
sudo apt-get install rsync

(1)、使用者主目錄(cd ~),ls -a檢視檔案,其中一個為“.ssh”,該檔案價是存放金鑰的。生成的金鑰都會放到這個資料夾中。
(2)、生成公鑰和.ssh資料夾:ssh-keygen -t rsa 一路回車,不需要輸入密碼
(2)、命令生成金鑰: ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa (使用rsa加密方式生成金鑰)回車後,會提示三次輸入資訊,我們直接回車即可。
(3)、將生成的公鑰id_rsa.pub 內容追加到authorized_keys,執行命令:cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys


多伺服器間配置參考

驗證:
執行命令:ssh localhost(主機名) 無錯誤提示則配置成功

三、hadoop的相關配置
(1)、官方的下載地址連結:Hadoop下載地址

(2)、下載後解壓路徑為/usr/hadoop/hadoop-2.7.3

(3)、配置hadoop

第一個:hadoop-env.sh

vim hadoop-env.sh

第27行中

export JAVA_HOME=/usr/jdk1.8.0_101

第二個:core-site.xml

<!-- 制定HDFS的老大(NameNode)的地址 -->
<property>
<name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> <!-- 指定hadoop執行時產生檔案的儲存目錄 --> <property> <name>hadoop.tmp.dir</name> <value>file:/usr/hadoop/hadoop-2.7.3/tmp</value> </property>

第三個:hdfs-site.xml

<!-- 指定HDFS副本的數量 -->
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
    <!-- HDFS許可權驗證 -->
    <property>
        <name>dfs.permissions.enabled</name>
        <value>false</value>
    </property>
    <!-- HDFS檔案系統超級許可權使用者 -->
    <property>
        <name>dfs.permissions.superusergroup</name>
        <value>root</value>
    </property>
    <!-- NameNode臨時檔案的存放目錄 -->
    <property>
        <name>dfs.NameNode.name.dir</name>
        <value>file:/usr/local/Hadoop-2.7.3/tmp/dfs/name</value>
    </property>
    <!-- datanode臨時檔案的存放目錄 -->
    <property>
        <name>dfs.datanode.data.dir</name>
        <value>file:/usr/local/Hadoop-2.7.3/tmp/dfs/data</value>
    </property>

第四個:mapred-site.xml

mv mapred-site.xml.template mapred-site.xml
vim mapred-site.xml
<!-- 指定MapReduce執行在YRAN上 -->
    <property>
        <name>MapReduce.framework.name</name>
        <value>YRAN</value>
    </property>
    <!-- 指定任務是否可以跨平臺提交 -->
    <property>
        <name>MapReduce.app-submission.cross-platform</name>
        <value>true</value>
    </property>
    <!-- MapReduce應用程式的依賴包 -->
    <property>
        <name>MapReduce.application.classpath</name>
        <value>
            /usr/local/Hadoop-2.7.3/etc/Hadoop,
            /usr/local/Hadoop-2.7.3/share/Hadoop/common/*,
            /usr/local/Hadoop-2.7.3/share/Hadoop/common/lib/*,
            /usr/local/Hadoop-2.7.3/share/Hadoop/hdfs/*,
            /usr/local/Hadoop-2.7.3/share/Hadoop/hdfs/lib/*,
            /usr/local/Hadoop-2.7.3/share/Hadoop/MapReduce/*,
            /usr/local/Hadoop-2.7.3/share/Hadoop/MapReduce/lib/*,
            /usr/local/Hadoop-2.7.3/share/Hadoop/YRAN/*,
            /usr/local/Hadoop-2.7.3/share/Hadoop/YRAN/lib/*
        </value>
    </property>

第五個:yarn-site.xml

<!-- 指定YRAN的老大(ResourceManager)的地址 -->
    <property>
        <name>YRAN.resourcemanager.hostname</name>
        <value>master</value>
    </property>
    <!-- reducer獲取資料的方式 -->
    <property>
        <name>YRAN.nodemanager.aux-services</name>
        <value>MapReduce_shuffle</value>
    </property>
    <!-- YRAN 應用環境 -->
    <property>
        <name>YRAN.application.classpath</name>
        <value>
                /usr/local/Hadoop-2.7.3/etc/Hadoop,
                /usr/local/Hadoop-2.7.3/share/Hadoop/common/*,
                /usr/local/Hadoop-2.7.3/share/Hadoop/common/lib/*,
                /usr/local/Hadoop-2.7.3/share/Hadoop/hdfs/*,
                /usr/local/Hadoop-2.7.3/share/Hadoop/hdfs/lib/*,
                /usr/local/Hadoop-2.7.3/share/Hadoop/MapReduce/*,
                /usr/local/Hadoop-2.7.3/share/Hadoop/MapReduce/lib/*,
                /usr/local/Hadoop-2.7.3/share/Hadoop/YRAN/*,
                /usr/local/Hadoop-2.7.3/share/Hadoop/YRAN/lib/*
        </value>
    </property>

(4)、配置hadoop的環境變數

vi /etc/profile

新增如下配置

export HADOOP_HOME=/usr/hadoop/hadoop-2.7.3
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export YARN_CONF_DIR=$HADOOP_HOME/etc/hadoop

執行指令 source /etc/profile

(5)、格式化namenode(是對namenode進行初始化)

hdfs namenode -format 或 hadoop namenode -format

(6)、安裝完成後的驗證

驗證環境是否配置好:hadoop version

hadoop version

驗證Java環境:java -version

java -version

驗證節點是否可以啟動:

start-all.sh
jps

jps

有六項表示安裝成功,否則請檢視相應的日誌檔案,找出問題並重新啟動

驗證網頁端是否正常:

http://192.168.3.97:8088/cluster可以正常檢視

四、安裝過程中遇到的問題及解決方法

(1)、啟動不了Namenode程序,出現IllegalArgumentException異常
hdfs-site.xml 檔案中將以下內容:

<property>  
    <name>dfs.namenode.name.dir</name>  
    <value>file://${hadoop.tmp.dir}/dfs/name</value>  
</property>  
<property>  
    <name>dfs.datanode.data.dir</name>  
    <value>file://${hadoop.tmp.dir}/dfs/data</value>  
</property>

修改為:

<property>  
    <name>dfs.namenode.name.dir</name>  
    <value>file:/home/hdusr/hadoop-2.2.0/tmp/dfs/name</value>
</property>  
<property>  
    <name>dfs.datanode.data.dir</name>  
    <value>file:/home/hdusr/hadoop-2.2.0/tmp/dfs/data</value>
</property> 

即使用絕對地址代替,如果沒有上面的項,則直接新增即可

(2)、nodemanager啟動失敗,日誌中錯誤如下:

java.lang.IllegalArgumentException: The ServiceName: mapreduce.shuffle set in yarn.nodemanager.aux-services is invalid.The valid service name should only contain a-zA-Z0-9_ and can not start with numbers

根據提示,Hadoop中命名規則是數字、字母或者下劃線,其他字元會出現錯誤,修改重新啟動即可

(3)、安裝Hadoop啟動之後總有警告:Unable to load native-hadoop library for your platform... using builtin-Java classes where applicable

原因:
解決思路一
解決思路二

Apache提供的hadoop本地庫是32位的,而在64位的伺服器上就會有問題,因此需要自己編譯64位的版本。
檢視當前是多少位的方法為:

file /usr/hadoop/hadoop-2.7.3/lib/native/libhadoop.so.1.0.0

我在安裝的過程中遇到這個問題,並沒有重新編譯原始碼,雖然這樣肯定可行,但是太麻煩,我將Hadoop根目錄下etc/hadoop/hadoop-env.sh中的下如下內容註釋掉:

export HADOOP_OPTS="$HADOOP_OPTS -Djava.net.preferIPv4Stack=true"   

然後修改該內容為:

export HADOOP_OPTS="-Djava.library.path=$HADOOP_PREFIX/lib:$HADOOP_PREFIX/lib/native"

相關推薦

Hadoop 2.7.3安裝配置

一、JDK的安裝與配置 (1)、自行前往Oracle官網下載JDK (2)、下載後解壓到相關路徑,配置環境變數: vi /etc/profile 新增如下配置 export JAVA_HOME=/usr/lib/jvm/java-8-oracle

Hadoop 2.7.3 安裝配置及測試

[[email protected] local]# su hadoop [[email protected] local]$ cd /usr/local/hadoop/etc/hadoop/ [[email protected] hadoop]$ hdfs namenode -

CentOS 7.3 安裝配置vsftp

一、配置防火牆,開啟FTP服務需要的埠 關閉系統自帶的防火牆 #停止firewall [root@localhost ~]# systemctl stop firewalld.service #禁止firewall開機啟動 [root@localh

win 10 + maven + idea 15 + Hadoop 2.7.3開發環境配置

前言 今天想在win 10上搭一個Hadoop的開發環境,希望能夠直聯Hadoop叢集並提交MapReduce任務,這裡給出相關的關鍵配置。 步驟 關於maven以及idea的安裝這裡不再贅述,非常簡單。 在win 10上配置Hadoop 將Ha

【Redis】2、CentOS 7安裝 redis3.2.3安裝配置

sync 倉庫 ace /var/ 發現 wan sudo base str 一、redis源碼安裝 【更正】現在最新穩定的版本已經到了3.2.8 截至到2016.8.11,redis最新穩定版本為3.2.3.本篇文章我們就以此版本為基礎,進行相關的講解。 下載redis源

並行作業2:Ubuntu(16.04)下安裝配置hadoop(2.7.3)

Ubuntu(16.04)下安裝配置hadoop(2.7.3) 系統採用vm下ubuntu16.04 一、Java環境搭建(參考我的其它部落格) 二、安裝ssh-server並實現免密碼登入 1、下載安裝ssh-server sudo apt-get install op

Hadoop-2.7.3環境下Hive-2.1.1安裝配置

環境:ubuntu-16.0.4;jdk1.8.0_111;apache-hadoop-2.7.3;apache-hive-2.1.1。這裡只記錄Hive的安裝。Hive只需要安裝到一個節點上即可。我這裡是裝在Namenode上的。首先從官網上下載所需要的版本,本人下載的ap

【轉載】Hadoop 2.7.3 和Hbase 1.2.4安裝教程

啟動 運行 property new rop net 文本文 .tar.gz cor 轉載地址:http://blog.csdn.net/napoay/article/details/54136398 目錄(?)[+] 一、機器環境

Ububtu 14.04 安裝 Hadoop 2.7.3

restart mar 說明 def rep 1.7 目前 other true 1.首先安裝java,配置java開發環境   下載jdk:http://www.oracle.com/technetwork/java/javase/archive-139210.html選

Hadoop 2.7.3 分布式集群安裝

app privacy 產生 script ipv star oca ace eth0 1. 集群規劃:192.167.1.252 palo252 Namenode+Datanode192.167.1.253 palo253 Yarn

CentOS6.5下安裝Hadoop-2.7.3(圖解教程)

17. node 內容 apr ddbd 忽略 passwd frame shuffle 註:圖片如果損壞,點擊文章鏈接:https://www.toutiao.com/i6627365258090512909/ 安裝好虛擬機(3個節點) YUM源已安裝好、系統版本Ce

ThinkPHP學習(一) Windows下Nginx+PHP5+ThinkPHP 3 2 1的安裝配置

                工具原料:Nginx153:網盤下載地址:http://pan.baidu.com/s/1qWNgLf2php-5.3.28-nts-Win32-VC9-x86網盤下載地址:http://pan.baidu.com/s/1pdukYThinkPHP_3.2.1網盤下載地址:ht

3臺機器配置hadoop-2.7.3叢集

一. 環境介紹 三臺主機,主機名和ip分別為: ubuntu1  10.3.19.171 ubuntu2  10.3.19.172 ubuntu3  10.3.19.173 三臺主機的登入使用者名稱是bigdata,home目錄是/home/bigdata 現在三臺主機上

Hadoop(2.7.3)叢集配置-官方文件

目標 本文描述瞭如何安裝、配置和管理有實際意義的Hadoop叢集,其規模可從幾個節點的小叢集到幾千個節點的超大叢集。如果你希望在單機上安裝Hadoop玩玩,從這裡(Single Node Setup)能找到相關細節。 這份文件不包含更先進話題,比如安

Hadoop入門-1.配置部署啟動(基於hadoop-2.7.3

1.準備 1.下載 hadoop-2.5.2.tar.gz 免安裝包到指定的目錄 2.執行命令: tar -zxvf hadoop-2.5.2.tar.gz 解壓目錄 2.配置 1.切換到指定的目錄: cd $HADOOP_HOME/etc/hadoop 2.對相關的配置檔

查詢Hadoop-2.7.3版本的預設配置檔案

1.core-default.xml:【hadoop-common-2.7.3.jar】 2.hdfs-default.xml:【hadoop-hdfs-2.7.3.jar】 3.mapred-default.xml:【hadoop-mapreduce-client-co

mac OS 10.11.6 安裝 Hadoop 2.7.3

1、準備環境 作業系統:Mac OS X 10.11.6 JDK:1.8.0_111 Hadoop:2.7.3 2、配置ssh 首先確認能夠遠端登入 系統偏好設定-共享 在終端執行 ssh-keyagent -t 一

hadoop 2.7.3基本操作

dir 不出 管理 查看 運行 oca 好的 nbsp 資源管理 ./bin/hdfs dfs -mkdir -p input 新建文件夾 YARN 有個好處是可以通過 Web 界面查看任務的運行情況:http://localhost:8088/cluster 但 Y

CentOS-7安裝配置Tomcat8.5

ane dsc 配置 pub add ted tar.gz 分享 cal 第一步:下載Tomcat8.5,通過地址:http://tomcat.apache.org/download-80.cgi下載 最後得到下載文件 apache-tomcat-8.5.15.tar.g

How to install Hadoop 2.7.3 cluster on CentOS 7.3

大數據############################# #ENV #spark01 192.168.51.6 #spark02 192.168.51.18 #spark03 192.168.51.19 #spark04 192.168.51.21 #spark05 192.168.51.24 ###