1. 程式人生 > >hadoop3.1 分散式叢集部署

hadoop3.1 分散式叢集部署

1.環境準備

Centos7.5系統 hadoop版本3.1

1.1資源分配

主機名 地址 角色
node01 10.10.0.11 namenode
node02 10.10.0.12 secondarynamenode datanode
node03 10.10.0.13 datanode
node04 10.10.0.14 datanode

1.2.所有節點分別配置免密登入 略

  說明:免密配好後以下都是在node01上執行的

1.3.安裝pssh配置 工具

yum install pssh -y
[[email protected] ~]# cat ~/hosts.list 
node01:22
node02:22
node03:22
node04:22
 

1.4.編輯node1的hosts檔案

10.10.0.11 node01
10.10.0.12 node02
10.10
.0.13 node03 10.10.0.14 node04
 

1.5.配置jdk的環境變數 略 (所有節點)

 

1.6.分發hosts配置

pscp.pssh -h hosts.list /etc/hosts /etc/
 

2.配置hadoop

所有配置均在/opt/hadoop-3.1.1/etc/hadoop 目錄下完成  

2.1.編輯hadoop-env.sh  新增如下配置

echo $JAVA_HOME   #根據得到路徑配置 hadoop-env.sh 裡JAVA_HOME的路徑
export JAVA_HOME=/usr/java/jdk1.8.0_191-amd64
export HDFS_NAMENODE_USER=root
export HDFS_DATANODE_USER=root
export HDFS_SECONDARYNAMENODE_USER=root
 

2.2.編輯core-site.xml

<configuration>
    <property>
        <name>fs.defaultFS</name>
        #配置預設的主節點為node01
        <value>hdfs://node01:9000</value>
    </property>
    #更改臨時目錄,將原先存到/tmp目錄下改存放到/var/hadoop/peseudo
    #namenode的元資料,datanode的block,也預設儲存在這個臨時目錄
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/var/hadoop/full</value>
    </property>
</configuration>
 

2.3.編輯hdfs-site.xml

<configuration>
    <property>
        <name>dfs.replication</name> #代表副本
        <value>2</value>
    </property>
 
    <property>
        <name>dfs.namenode.secondary.http.address</name> #代表從節點的訪問地址
        <value>node02:9868</value>
    </property>
</configuration>
 

2.4.編輯worker 

node02
node03
node04
 

3使用pssh工具批量分發配置好的 hadoop安裝包

pscp.pssh -h  ~/hosts.list -r /opt/hadoop-3.1.1 /opt/
 

4.啟動hadoop分散式叢集

4.1.配置hadoop的環境變數編輯/etc/profile

export HADOOP_HOME=/opt/hadoop-3.1.1
PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
 

4.2.分發修改後的配置

pscp.pssh -h  ~/hosts.list  /etc/profile /etc/
 

4.3.批量執行生效配置

pssh -h hosts.list -i 'source /etc/profile'
 

4.4.驗證hadoop環境變數配置

hdfs --help #能顯示幫助資訊表示hadoop環境配置成功,就不必在使用在絕對路徑下執行相關命令了
 

4.5.在namenode節點上(node01)格式化

[[email protected] ~]# hdfs namenode -format

4.6進入到對應的儲存目錄檢視

[[email protected] current]# cd /var/hadoop/full/dfs/name/current/
[[email protected] current]# ll
total 16
-rw-r--r-- 1 root root 389 Dec 13 00:32 fsimage_0000000000000000000
-rw-r--r-- 1 root root  62 Dec 13 00:32 fsimage_0000000000000000000.md5
-rw-r--r-- 1 root root   2 Dec 13 00:32 seen_txid
-rw-r--r-- 1 root root 214 Dec 13 00:32 VERSION
 

4.6.在node1上啟動所有節點所有角色

[[email protected] ~]# kill -9 2755
[[email protected] ~]# start-dfs.sh
Starting namenodes on [node01]
Last login: Thu Dec 13 01:26:04 CST 2018 on pts/0
Starting datanodes
Last login: Thu Dec 13 01:27:00 CST 2018 on pts/0
Starting secondary namenodes [node02]
Last login: Thu Dec 13 01:27:02 CST 2018 on pts/0

 

4.7.在各個節點檢視所屬角色

相關推薦

hadoop3.1 分散式叢集部署

1.環境準備 Centos7.5系統 hadoop版本3.1 1.1資源分配 主機名 地址

Centos7 實現Hadoop-2.9.1分散式叢集搭建和部署(三臺機器)

一、準備三臺虛擬機器hadoop 192.168.131.128 localhost131 192.168.131.131 localhost134 192.168.131.134(以上是我的三臺虛擬機器的hostname 和 ip)hadoop 是 master 的 hos

hadoop 3.1.1 分散式安裝部署 ubuntu16.04

參考連結:https://blog.didiyun.com/index.php/2018/11/20/hadoop3-1-1/ 其中需要注意的幾個點包括 hosts節點中刪除原來的127.0.0.1 localhost和127.0.0.1 master兩行。 hadoop使

Hadoop3.1叢集搭建指南

Hadoop3.1 叢集搭建指南 前言 本實驗基於Hadoop3.1 和 jdk1.8安裝,主要涉及內容是linux網路設定,主機設定,ssh遠端登陸設定, 用的作業系統是Centos6.8。 一:LINUX基本配置 步驟:(注:#代表超級使用者下使用) 1 建立單個使用者用

基於Hadoop分散式叢集部署Hive2.3

1. 基於docker安裝mysql 由於自己以前在Ubuntu kylin 16.04的系統上安裝mysql5.7一直有問題,後來學會了使用docker安裝mysql。覺得這個方法很方便,所以這次繼續使用docker安裝mysql。 ① 安裝docker 參考

Redis分散式叢集部署安裝及細節(一臺主機搭建多個服務--偽叢集

Redis分散式叢集部署安裝及細節  一: redis cluster介紹篇 1:redis cluster的現狀 目前redis支援的cluster特性(已親測): 1):節點自動發現 2):slave->master選舉,叢集容錯 3):Hotreshar

Redis分散式叢集部署安裝及細節(多主機搭建叢集開啟多個服務)

注意: redis的安裝步驟與同機器下一致,這裡只講解個別不同配置的修改 每臺主機都有固定的IP 10.25.84.105SZD-L0073672   此臺機器部署了多個服務 10.25.84.106SZD-L0073671   10.25.84.69  SZD-L007

hadoop完全分散式叢集部署

實驗環境: 172.25.66.1 namenode節點(上一篇部落格已部署成功) 172.25.66.2 datanode 節點 172.25.66.3 datanode節點 server1: 1.停掉之前的hdfs和yarn叢集 2.安裝nfs服務,進行檔案共享

CentOS7.5搭建Flink1.6.1分散式叢集

轉發自:https://www.cnblogs.com/frankdeng/p/9400627.html 一. Flink的下載 安裝包下載地址:http://flink.apache.org/downloads.html  ,選擇對應Hadoop的Flink版本下載

部署Hadoop環境(四)HBase分散式叢集部署與設計

HBase是一個高可靠、高效能、面向列、可伸縮的分散式儲存系統,利用Hbase技術可在廉價PC Server上搭建 大規模結構化儲存叢集。 HBase 是Google Bigtable 的開源實現,與Google Bigtable 利用GFS作為其檔案儲存系統類似, HBase 利用Hado

kafka_0.10.1.0叢集部署

1. 背景簡介 Kafka是一個分散式流平臺,原本開發自LinkedIn,之後成為Apache專案的一部分,用於構建實時資料管道和流媒體應用,水平擴充套件、容錯,很多公司都在生產環境中使用:LinkedIn,Yahoo,Twitter,Uber,Oracle

activiti5.10解決分散式叢集部署的主鍵問題

一、概要綜述 1、activiti5是jbpm4升級上來的一款最新版工作流引擎,已經將自己的表劃分為4類:執行時、通用資料、歷史資料、流程相關資料,但是有一個核心問題就是是否支援叢集部署,經過我對原始碼的初步分析發現,他的預設主鍵策略是全域性獲取一個通用表中的欄位來做增加,

ZooKeeper分散式叢集部署及問題

    ZooKeeper為分散式應用系統提供了高效能服務,在很多常見的叢集服務中被廣泛使用,最常見的當屬HBase叢集了,其它的還有Solr叢集,Hadoop-2中的HA自動故障轉移等。本文主要介紹了為HBase叢集部署ZooKeeper叢集的過程,並說明了部署過程中遇到的

zookeeper3.4.5+tomcat7+solr-4.10.1分散式叢集搭建

一、   說明 本次分散式部署solr是在兩臺伺服器(10.21.16.31和10.21.16.34)上部署5個結點,10.21.16.31伺服器部署3個結點,10.21.16.34伺服器部署2個結點 二、   下載需要的工具包 zookeeper-3.4.5.tar.g

zookeeper叢集管理(1) zookeeper叢集部署

zookeeper是一個分散式(叢集)應用程式協調系統,具有分散式以及開源的特性,也是大資料hadoop生態中的一個基礎服務,但不去不止用於hadoop系統。本次實驗記錄zookeeper叢集的部署,擴容,縮容,基本操作以及監控,本文件將實驗結果記錄下來,作為研

5000+字硬核乾貨!Redis 分散式叢集部署實戰

原理: Redis叢集採用一致性雜湊槽的方式將叢集中每個主節點都分配一定的雜湊槽,對寫入的資料進行雜湊後分配到某個主節點進行儲存。 叢集使用公式(CRC16 key)& 16384計算鍵key資料那個槽。 16384個slot均勻分佈在各個節點上。 叢集中每個主節點將承擔一部分槽點的

hadoop3.1.0 HA高可用完全分散式叢集的安裝部署(詳細教程)

1.環境介紹 伺服器環境:CentOS 7 5臺伺服器 兩臺namenode 三臺datanode 節點 IP NN DN ZK ZKFC

HBase 1.2.6 完全分散式叢集安裝部署詳細過程

Apache HBase 是一個高可靠性、高效能、面向列、可伸縮的分散式儲存系統,是NoSQL資料庫,基於Google Bigtable思想的開源實現,可在廉價的PC Server上搭建大規模結構化儲存叢集,利用Hadoop HDFS作為其檔案儲存系統,利用Hadoo

Docker實戰之安裝配置HBase-1.2.2完全分散式叢集

環境配置 VM:VMware Workstation OS:Ubuntu 14.04  LTS HBASE:hbase-1.2.2 HBase叢集規劃 172.17.0.5   hmaster  172.17.0.6&

Hadoop2.5.2叢集部署(完全分散式

環境介紹 硬體環境 CPU 4 MEM 4G 磁碟 60G  軟體環境 OS:centos6.5版本 64位 Hadoop:hadoop2.5.2 64位 JDK: JDK 1.8.0_91 主機配