1. 程式人生 > >Hadoop分散式叢集搭建完全教程

Hadoop分散式叢集搭建完全教程

Hadoop分散式叢集環境搭建步驟如下

實驗環境:
系統:win7
記憶體:8G(因要開虛擬機器,記憶體建議不低於8G)
硬碟:建議固態
虛擬機器:VMware 12
Linux:Centos 7
jdk1.7.0_67
hadoop-2.5.0.tar.gz

  • 1.安裝VMware虛擬機器環境
  • 2.安裝Centos作業系統
  • 3.修改主機名配置網路
  • 4.配置ssh無密碼登入
  • 5.上傳jdk配置環境變數
  • 6.上傳hadoop配置環境變數
  • 7.修改hadoop配置檔案
  • 8.格式化namenode
  • 9.啟動hadoop並測試

1安裝VMware虛擬機器環境

這一步很簡單,直接下載安裝包下一步,安裝成功之後開啟輸入註冊碼

5A02H-AU243-TZJ49-GTC7K-3C61N
GA1T2-4JF1P-4819Y-GDWEZ-XYAY8
FY1M8-6LG0H-080KP-YDPXT-NVRV2
ZA3R8-0QD0M-489GP-Y5PNX-PL2A6
FZ5XR-A3X16-H819Q-RFNNX-XG2EA
ZU5NU-2XWD2-0806Z-WMP5G-NUHV6
VC58A-42Z8H-488ZP-8FXZX-YGRW8

2安裝Centos作業系統

我這裡安裝了3臺Linux,一臺作為namenode,兩臺作為datanode,使用的是Centos7 64位,建議使用Centos,原因很簡單,免費開源,屬於重量級Linux,更接近生產環境,當然用其它版本也是可以的。
下載地址:

http://isoredirect.centos.org/centos/7/isos/x86_64/CentOS-7-x86_64-DVD-1611.iso
安裝過程很簡單這裡就不詳述了。

3.修改主機名配置網路

namenode:master
datanode:slave1 slave2

執行以下命令
vi /etc/hostname
將localhost改為master
另外兩臺分別改為slave1和slave2
接著執行以下命令
vi /etc/hosts
將三臺linux的ip和主機名加進去
192.168.149.138 master
192.168.149.139 slave1
192.168.149.140 slave2
以上地址根據自己主機填寫

4配置ssh無密碼登入

在master上執行以下命令

ssh-keygen
上一步執行完之後將會生成公鑰和私鑰
cd ~/.ssh
在.ssh目錄執行ll命令會看到id_rsa和id-rsa.pub兩個檔案,第一個是私鑰,第二個是公鑰
然後執行
ssh-copy-id -i /root/.ssh/id_rsa.pub [email protected]
ssh-copy-id -i /root/.ssh/id_rsa.pub [email protected]
這樣就把公鑰拷到了另外兩臺linux上
然後測試是否成功
ssh 192.168.149.139
如果不要密碼則配置成功

5 上傳jdk配置環境變數

將jdk上傳至centos

執行以下命令
tar -zxvf jdk1.7.0_67
vi /etc/profile
將Java環境變數配置好之後
source /etc/profile 讓配置生效
檢視是否配好
java -version

6上傳hadoop配置環境變數

將hadoop安裝包上傳至centos

執行以下命令
tar -zxvf hadoop-2.5.0.tar.gz
mv hadoop-2.5.0.tar.gz hadoop 重新命名
配置hadoop環境變數同Java。PATH路徑分別為bin和sbin
檢視是否成功
hadoop version

7修改hadoop配置檔案

需要修改的檔案有 hadoop-env.sh core-site.xml hdfs-site.xml mapred-site.xml
yarn-site.xml

hadoop-env.sh

將JAVA_HOME路徑新增進去

core-site.xml

<configuration>  
    <property>  
        <name>fs.default.name</name>  
        <value>hdfs://master:9000</value>  
    </property>   
    <property>  
        <name>hadoop.tmp.dir</name>  
        <value>/usr/local/hadoop/tmp</value>   
    </property>  
</configuration>  

hdfs-site.xml

<configuration>   
        <property>
               <name>dfs.replication</name>  
               <value>1</value>  
        </property>    
</configuration>  

mapred-site.xml

<configuration>  
          <property>                                                                    
        <name>mapreduce.framework.name</name>  
                <value>yarn</value>  
           </property>  
</configuration>  

yarn-site.xml

<configuration>  
        <property>  
              <name>yarn.resourcemanager.hostname</name>  
               <value>master</value>  
       </property>
        <property>  
               <name>yarn.nodemanager.aux-services</name>  
               <value>mapreduce_shuffle</value>  
        </property>  
</configuration>

注意:配置完成後別忘了把master上的hadoop拷貝到slave1和slave2上,使用命令:scp -r /usr/local/haoop slave1:/usr/local/

8格式化namenode

執行以下命令
hadoop namenode -format
start-dfs.sh
start-yarn.sh

9啟動hadoop並測試

master上執行以下命令測試

jps
如結果如下則表示搭建成功
ResourceManager
Jps
NameNode
NodeManager
SecondaryNameNode
slave1和slave2上執行以下命令測試
jps
NodeManager
DataNode
Jps

至此hadoop分散式叢集環境搭建就成功了!

相關推薦

Hadoop分散式叢集搭建完全教程

Hadoop分散式叢集環境搭建步驟如下 實驗環境: 系統:win7 記憶體:8G(因要開虛擬機器,記憶體建議不低於8G) 硬碟:建議固態 虛擬機器:VMware 12 Linux:Centos 7 jdk1.7.0_67 hadoop-2.5.0

Hadoop cdh版本分散式叢集搭建圖文教程

有很多想學習大資料的朋友,但苦於找不到系統的學習資料,搭建一個hadoop叢集都要耽擱很多時間。下面我給大家一個搭建大資料的圖文教程。教程中需要用到的軟體和資料我已經準備好了,下面是分享連結,直接下載即可。 連結:http://pan.baidu.com/s/1c1PW

Hadoop 分散式叢集搭建

1 修改配置檔案 1.1 hadoop-env.sh export JAVA_HOME=/usr/apps/jdk1.8.0_181-amd64 1.2 core-site.xml <property> <name>fs.def

vmware centos hadoop分散式叢集搭建 粗略筆記

初始設定: 虛擬了三個CentOs系統(安裝CentOs的步驟省略),一臺master 兩臺slave,使用者名稱全部為hadoop,具體如下(除了第一步使用root使用者操作,其他均使用hadoop使用者): 1.新增hadoop使用者 第一步:grou

Centos 7下Hadoop分散式叢集搭建

    一、關閉防火牆(直接用root使用者) #關閉防火牆 sudo systemctl stop firewalld.service #關閉開機啟動 sudo systemctl disable firewalld.service 二、修改每臺主機

Hadoop分散式叢集搭建方法(Version: java 1.8+CentOS 6.3)

夏天小廚 前言 大資料這個概念,說的通俗點就是對海量資料的處理分析。據不完全統計,世界百分之九十的資料都由近幾年產生,且不說海量資料的ETL,單從資料的儲存和資料展現的實時性,傳統的單機就已經無法滿足實際場景的需要例如很多OLAP系統。由此引出了Hadoop,Hadoop

安裝Spark+hadoop,spark、hadoop分散式叢集搭建...(親自搭建過!!)

首先說一下我所用的版本: spark-2.1.1-bin-hadoop2.7.tgz hadoop-2.7.3.tar.gz jdk-8u131-linux-x64.rpm 我們實驗室有4臺伺服器:每個節點硬碟:300GB,記憶體:64GB。四個

hadoop分散式叢集搭建

提示 閱讀本文需要同時對c++和java有一定了解。 背景 有時我們比較兩個字串時不考慮它們是大寫還是小寫;舉個例子,在這種情況下我們認為“BanAna”和“baNaNA”是等價的。 其中一種思路是: 1. 將兩個字串都轉換為小寫(或者都轉換為大寫); 2.比較轉換後的兩個字

hadoop分散式叢集搭建及其常見問題

hadoop分散式叢集的搭建 這裡我用3臺虛擬機器搭建hadoop叢集——分別為:mini1、mini2、mini3。hadoop版本為:hadoop-2.8.4版本。 下載地址:hadoop-2.8.

【異常】Hadoop分散式叢集搭建之zookeeper故障

各節點中均已安裝配置好zookeeper。 在主節點中用遠端命令啟動個節點中的zookeeper。執行成功。 然而在檢視各節點的zookeeper狀態時,主節點報錯 Error contacting service. It is probably no

5節點Hadoop分散式叢集搭建經驗分享

本文我們使用hadoop2.6.0版本配置Hadoop叢集,同時配置NameNode+HA、ResourceManager+HA,並使用zookeeper來管理Hadoop叢集。 1.1 寫在前面的話 1.2 (一)HDFS概述 1.2.1 基礎架構 1、NameNod

史上最簡單詳細的Hadoop完全分散式叢集搭建

一.安裝虛擬機器環境 Vmware12中文官方版 連結:https://pan.baidu.com/s/1IGKVfaOtcFMFXNLHUQp41w 提取碼:6rep 啟用祕鑰:MA491-6NL5Q-AZAM0-ZH0N2-AAJ5A 這個安裝就十分的簡單了,只需要不斷點選下

Hadoop-3.1.1完全分散式叢集搭建

一、工作準備 1.虛擬機器 安裝Vmware 安裝CentOs虛擬機器三臺 master 192.168.33.101 slave1 192.168.33.102 slave2 192.168.33.103 2.虛擬機器配置

linux hadoop完全分散式叢集搭建圖文詳解

一.前期準備 1.1 Win7官網下載hadoop包 本文使用版本hadoop-2.6.5.tar.gz 1.2 配置jdk 1.3 centos7叢集伺服器 主機名 系統

hadoop學習第二天~Hadoop2.6.5完全分散式叢集搭建和測試

環境配置: 系統 centos7 節點 192.168.1.111 namenode 192.168.1.115 datanode2 192.168.1.116 datanode3 java 環境 :

hadoop完全分散式叢集搭建全部流程之四:ssh和指令碼補充

SSH無密碼登入 1)配置ssh:配置ssh無密碼登入主要 是為了方便叢集之間進行通訊,方便運算。 (1)基本語法 ssh 另一臺電腦的ip地址 (2)ssh連線時出現Host key verif

Hadoop完全分散式叢集搭建

Hadoop的執行模式 Hadoop一般有三種執行模式,分別是: 單機模式(Standalone Mode),預設情況下,Hadoop即處於該模式,使用本地檔案系統,而不是分散式檔案系統。,用於開發和除錯。 偽分散式模式(Pseudo Distrubuted Mode),使用的是分散式檔案系統,守護程序執行

Hadoop單機/偽分散式叢集搭建(新手向)

此文已由作者朱笑笑授權網易雲社群釋出。 歡迎訪問網易雲社群,瞭解更多網易技術產品運營經驗。 本文主要參照官網的安裝步驟實現了Hadoop偽分散式叢集的搭建,希望能夠為初識Hadoop的小夥伴帶來借鑑意義。 環境: (1)系統環境:CentOS 7.3.1611 64位 (2)J

centos7.3中搭建hadoop分散式叢集環境詳細過程

一、準備工作 1、準備3臺物理機或者虛擬機器; 2、安裝centos7系統; 3、準備好相關軟體包並拷貝相關軟體到目標伺服器上 hadoop-2.9.0.tar.gz jdk-8u131-linux-x64.tar.gz 二、配置網路 1、設定靜態網路ip 1)設定靜

Spark學習筆記(三) Ubuntu搭建Hadoop分散式叢集

Ubuntu搭建Hadoop分散式叢集 執行環境 配置目標 搭建Hadoop分散式叢集步驟 1 搭建master 1.1 安裝JDK 1.2 安裝SSH 1.3 安裝Hadoop 2