1. 程式人生 > >Hadoop2.7+Centos7偽分散式環境步驟記錄

Hadoop2.7+Centos7偽分散式環境步驟記錄

思路:準備主從伺服器,配置主伺服器可以無密碼SSH登入從伺服器,解壓安裝JDK,解壓安裝Hadoop,配置hdfs、mapreduce等主從關係。

第一步 安裝虛擬機器與Linux系統
(1) 下載
centos7
VMWare12
(2) 安裝centos7完整版

第二步 安裝JDK

注意下載jdk7與系統匹配,這裡使用的是jdk7 64位,下載Hadoop2.7.1 官網是64位
(1)下載“jdk-7u79-linux-x64.gz”,放到/usr/local/soft目錄下(新建soft用於存放後續上載軟體)
(2)解壓,輸入命令,tar -zxvf jdk-7u79-linux-x64.gz


移動檔案至/usr/local/jdk目錄下
mv 原始檔 目標檔案
(3)設定環境變數: 編輯/etc/profile

export JAVA_HOME=/home/java/jdk1.7.0_79
export CLASSPATH=.:$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export PATH=$PATH:$JAVA_HOME/bin 

(4)使配置生效,輸入命令,source /etc/profile
(5)輸入命令,java -version 檢查配置是否生效

免金鑰登入!!


SSH免密碼登入,因為Hadoop需要通過SSH登入到各個節點進行操作,我用的是root使用者,每臺伺服器都生成公鑰,再合併到authorized_keys
(1)CentOS預設沒有啟動ssh無密登入,去掉/etc/ssh/sshd_config其中2行的註釋,每臺伺服器都要設定,
RSAAuthentication yes
PubkeyAuthentication yes
(2)輸入命令,ssh-keygen -t rsa,生成key,都不輸入密碼,一直回車,/root就會生成.ssh資料夾,每臺伺服器都要設定,
(3)合併公鑰到authorized_keys檔案,在Master伺服器,進入/root/.ssh目錄,通過SSH命令合併,
cat id_rsa.pub > authorized_keys 將金鑰寫入至authorized_keys檔案中
再將authorized_keys 檔案複製至下一個機器的.ssh路徑下繼續合併公鑰id_rsa.pub
cat id_rsa.pub>> authorized_keys,迴圈將所有機器合併完成後,將最終的authorized_keys檔案複製到每臺機器上。over
(5)完成,ssh
[email protected]
、ssh [email protected]就不需要輸入密碼了

第三步 安裝Hadoop

1)解壓 hadoop安裝包 至/usr/local/hadoop
2)在hadoop下建立 資料夾 tmp hdfs dfs/data、dfs/name
3)修改配置檔案如下:
配置/usr/local/hadoop/etc/hadoop目錄下的core-site.xml

<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://192.168.100.10:9000</value>
    </property>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>file:/usr/local/hadoop/tmp</value>
    </property>
    <property>
        <name>io.file.buffer.size</name>
        <value>131702</value>
    </property>
</configuration>

配置/usr/local/hadoop/etc/hadoop目錄下的hdfs-site.xml

<configuration>
    <property>
        <name>dfs.namenode.name.dir</name>
        <value>file:/usr/local/hadoop/dfs/name</value>
    </property>
    <property>
        <name>dfs.datanode.data.dir</name>
        <value>file:/usr/local/hadoop/dfs/data</value>
    </property>
    <property>
        <name>dfs.replication</name>
        <value>2</value>
    </property>
    <property>
        <name>dfs.namenode.secondary.http-address</name>
        <value>192.168.100.10:9001</value>
    </property>
    <property>
    <name>dfs.webhdfs.enabled</name>
    <value>true</value>
    </property>
</configuration>

配置/usr/local/hadoop/etc/hadoop目錄下的mapred-site.xml
將mapred-site.xml.template重新命名為mapred-site.xml

<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
    <property>
        <name>mapreduce.jobhistory.address</name>
        <value>192.168.100.10:10020</value>
    </property>
    <property>
        <name>mapreduce.jobhistory.webapp.address</name>
        <value>192.168.100.10:19888</value>
    </property>
</configuration>

配置/usr/local/hadoop/etc/hadoop目錄下的yarn-site.xml

<configuration>
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
    <property>
        <name>yarn.nodemanager.auxservices.mapreduce.shuffle.class</name>
        <value>org.apache.hadoop.mapred.ShuffleHandler</value>
    </property>
    <property>
        <name>yarn.resourcemanager.address</name>
        <value>192.168.100.10:8032</value>
    </property>
    <property>
        <name>yarn.resourcemanager.scheduler.address</name>
        <value>192.168.100.10:8030</value>
    </property>
    <property>
        <name>yarn.resourcemanager.resource-tracker.address</name>
        <value>192.168.100.10:8031</value>
    </property>
    <property>
        <name>yarn.resourcemanager.admin.address</name>
        <value>192.168.100.10:8033</value>
    </property>
    <property>
        <name>yarn.resourcemanager.webapp.address</name>
        <value>192.168.100.10:8088</value>
    </property>
    <property>
        <name>yarn.nodemanager.resource.memory-mb</name>
        <value>768</value>
    </property>
</configuration>

配置/home/hadoop/hadoop-2.7.0/etc/hadoop目錄下hadoop-env.sh、yarn-env.sh的JAVA_HOME

export JAVA_HOME=/usr/local/jdk

第五步 配置/usr/local/hadoop/etc/hadoop目錄下的slaves

刪除預設的localhost,增加2個從節點,
192.168.100.11
192.168.100.12

第六步:將配置好的Hadoop複製到各個節點對應位置上,通過scp傳送

scp -r /home/hadoop 192.168.0.183:/home/
scp -r /home/hadoop 192.168.0.184:/home/

第七步 在Master伺服器啟動hadoop

進入/usr/local/hadoop目錄
(1)初始化,輸入命令,bin/hdfs namenode -format !!!
(2)全部啟動sbin/start-all.sh,也可以分開sbin/start-dfs.sh、sbin/start-yarn.sh
(3)停止的話,輸入命令,sbin/stop-all.sh
(4)輸入命令,jps,可以看到相關資訊

第八步 Web訪問,直接關閉防火牆 否則無法訪問

centos7 關閉firewall:

systemctl stop firewalld.service #停止firewall
systemctl disable firewalld.service #禁止firewall開機啟動
firewall-cmd --state #檢視預設防火牆狀態(關閉後顯示notrunning,開啟後顯示running)

centos6 關閉firewall:

 關閉防火牆
    執行命令    service iptables stop
    驗證:        service iptables status
  關閉防火牆的自動執行
    執行命令    chkconfig iptables off
    驗證:        chkconfig --list | grep iptables
瀏覽器開啟http://192.168.100.10:50070/

安裝完成。這只是大資料應用的開始,之後的工作就是,結合自己的情況,編寫程式呼叫Hadoop的介面,發揮hdfs、mapreduce的作用。

相關推薦

Hadoop2.7+Centos7分散式環境步驟記錄

思路:準備主從伺服器,配置主伺服器可以無密碼SSH登入從伺服器,解壓安裝JDK,解壓安裝Hadoop,配置hdfs、mapreduce等主從關係。 第一步 安裝虛擬機器與Linux系統 (1) 下載 centos7

Hadoop2.7.4完全分散式環境搭建

軟體版本 虛擬機器管理軟體:VMware WorkStation Pro 12.0 作業系統:CentOS 6.7 Hadoop:Hadoop 2.7.4 JDK:jdk-8u65-linux-x64.tar.gz 一、環境準備 1、 修改各個節點主機名:vi /e

Hadoop2.x.x分散式環境搭建、測試

0、使用host-only方式 將Windows上的虛擬網絡卡改成跟Linux上的網絡卡在同一個網段 注意:一定要將Windows上的VMnet1的IP設定和你的虛擬機器在同一網段,但是IP不能相同。 1、Linux環境配置 1.1修改主機名 vim /etc/syscon

Hadoop2.2.0分散式環境搭建(附:64位下編譯Hadoop-2.2.0過程)

Hadoop2.2.0偽分散式環境搭建: 寫在前面:Hadoop2.2.0預設是支援32位的OS,如果想要在64位OS下執行的話,可以通過在64位OS下面編譯Hadoop2.2.0來實現,編譯的操作步驟在最後面呈現。 1: 操作:下載軟體; 檔案:Hadoop-2.2.0.

Hadoop實戰(1)_阿里雲搭建Hadoop2.x的分散式環境

環境:阿里雲伺服器 CentOS 7 x86_64 安裝介質:jdk-7u75-linux-i586.tar.gz,hadoop-2.4.1.tar.gz 安裝jdk tar -zxvf jdk-7u75-linux-i586.tar.gz 配置

Hadoop2.7.3單機分散式環境搭建

Hadoop2.7.3單機偽分散式環境搭建 作者:家輝,日期:2018-07-10 CSDN部落格: http://blog.csdn.net/gobitan 說明:Hadoop測試環境經常搭建,這裡也做成一個模板並記錄下來。 基礎環境

Hadoop 分散式環境搭建——hadoop2.8+centos7(零基礎&完整版)

引言: 環境: 一、安裝虛擬機器 在windows系統中安裝VMware14pro,直接下載安裝,無需贅述 ps:如有條件,請購買使用 二、安裝linux作業系統 CentOS 是一個基於Red Hat Linux 提供的可自由使用

Centos7下配置Hadoop分散式環境

Centos 版本:7 Hadoop版本:2.7.4 Java版本:1.8 一、安裝JDK 官網下載jdk 1.8 http://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.

Hive on Spark 分散式環境搭建過程記錄

進入hive cli是,會有如下提示: Hive-on-MR is deprecated in Hive 2 and may not be available in the future versions. Consider using a different execution engine (i.e. s

大資料環境搭建之HBase分散式環境搭建步驟詳解

文章目錄 HBase簡介 環境準備 JDK1.8以上 HBase 1.2.6 安裝模式 安裝配置 解壓安裝包 配置檔案 hbase-env.

大資料環境搭建之Kafka分散式環境搭建步驟詳解

文章目錄 Kafka簡介 環境準備 解壓安裝 配置檔案 服務啟動 Topic相關操作 控制檯生產者 控制檯消費者 Kafka簡介

Hadoop分散式環境搭建詳細步驟和詞頻統計

一.Linux系統配置 以下操作是在root使用者下進行的 1.配置網路環境 在Linux圖形化介面,點選視窗欄的System-Preferences-Network Connections-System eth0-IPv4 Settings M

zookeeper-3.4.7 環境搭建 (分散式環境三臺虛擬機器)

樓主小白 ,本帖給自已以後重灌留點記憶。希望能幫到他人。本人實驗切實可行 。環境準備 hadoop-2.7.5(搭建完成) ,centos 6.5  ,zookeeper-3.4.7.tar.gz  1.準備安裝目錄為 /home/ywh   (cd )  2.解壓縮 zoo

Apache Hadoop-2.7.3分散式搭建詳細步驟

1.什麼是Apache Hadoop?Apache Hadoop專案為可靠,可擴充套件的分散式計算開發開源軟體。2.Apache Hadoop專案包含哪些模組?Hadoop Common:支援其他hadoop模組的常用工具HDFS(Hadoop Distributed Fil

在 CentOS 7.2 下安裝 Hadoop 2.7.5 並搭建分散式環境的方法

資源下載 一、建立 Hadoop 使用者 建立 hadoop 使用者,並分配以使用者名稱為家目錄/home/hadoop,並將其加入到sudo使用者組,建立好使用者之後,以 hadoop 使用者登入: sudo useradd

基於CentOS6.5系統Hadoop2.7.3完全分散式叢集搭建詳細步驟

 前言:本次搭建hadoop叢集使用虛擬機器克隆方式克隆slave節點,這樣做可以省去很多不必要的操作,來縮短我們的搭建時間。 一、所需硬體,軟體要求 使用 VMWare構建三臺虛擬機器模擬真實物理環境 作業系統:CentOS6.5 二、必備條件 hadoop搭建需

阿里雲虛擬機器搭建Hadoop-2.6.0-cdh5.7.1安裝詳解(分散式環境

首先先搭配安全組 開啟映象後輸入以下內容:             重要:  yum -y install lrzsz HOSTNAME=(自己的主機名字) hostname $HOSTNAME echo "$(grep -E '127|::1' /etc/host

CentOS7下搭建hadoop2.7.3完全分散式

這裡搭建的是3個節點的完全分散式,即1個nameNode,2個dataNode,分別如下: CentOS-master   nameNode   192.168.11.128 CentOS-node1   dataNode    192.168.11.131 Cen

Windows 7 64位系統上搭建Hadoop分散式環境(很詳細)

在開始配置前,我們先了解Hadoop的三種執行模式。 Hadoop的三種執行模式 獨立(或本地)模式:無需執行任何守護程序,所有程式都在同一個JVM上執行。在獨立模式下測試和除錯MapReduce程式很方便,因此該模式在開發階段比較適合。 **偽分散式

Ubuntu hadoop 分散式環境搭建步驟+ssh金鑰(免密碼登入)配置

27408 NameNode 28218 Jps 27643 SecondaryNameNode 28066 NodeManager 27803 ResourceManager 27512 DataNode 進入下面的網頁查詢具體資料 http://192.168.1.101:50070 (HD