1. 程式人生 > >Hadoop2.9.0+VMware+ubuntu16.04完全分散式安裝指南-超詳細

Hadoop2.9.0+VMware+ubuntu16.04完全分散式安裝指南-超詳細

0.環境概要

Linux:Ubuntu 16.04
hadoop:Hadoop 2.9.0
jdk:1.8.0
vmware:14.0 pro

1.Linux環境部署


1.1第一步配置Vmware NAT網路

    vmware虛擬機器的配置,主要是網路配置,選擇NAT網路,Ubuntu在我的電腦上不需要配置網路,選擇預設就好。centos系統需要修改配置檔案,請看這裡。所以這一步跳過啦。

1.2第二步Vmware安裝Linux作業系統

1.關閉防火牆

chkconfig iptables off
2.關閉selinux
vim /etc/sysconfig/selinux
修改為

# This file controls the state of SELinux on the system.
# SELINUX= can take one of these three values:
#     enforcing - SELinux security policy is enforced.
#     permissive - SELinux prints warnings instead of enforcing.
#     disabled - No SELinux policy is loaded.
SELINUX=disabled   #修改這個地方為disabled
# SELINUXTYPE= can take one of these two values:
#     targeted - Targeted processes are protected,
#     mls - Multi Level Security protection.
SELINUXTYPE=targeted

2.hostname修改(永久)

vim /etc/sysconfig/network
NETWORKING=yes  #使用網路
HOSTNAME=hadoop00  #設定主機名
vim /etc/hosts



```
```
vim /etc/hosts
vim /etc/hosts


```
3.免密碼登入


4.建立工作目錄


5.安裝jdk-配置環境變數
a.官網下載JDK檔案:[JDK下載](l)
選擇對應的JDK,此處為jdk-8u151-linux-x64.tar.gz
b.建立一個資料夾```sudo mkdir /java```
c.將檔案解壓至該資料夾
```tar -zxvf jdk-8u151-linux-x64.tar.gz -C /java```
d.配置jdk的環境變數
```sudo gedit /etc/profile```
在末尾加入以下語句
```PATH="/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games:$JAVA_HOME/bin"
export CLASSPATH=.:\$JAVA_HOME/lib:$JAVA_HOME/jre/lib
export JAVA_HOME=/java/jdk1.8.0_121```
e.修改完成之後儲存關閉,並輸入以下命令使環境變數立即生效
```source /etc/profile```
f.輸入```java -version```,顯示JDK版本說明恭喜你,環境變數配置正確,繼續下一步






6.Hadoop本地模式安裝
| 模式名稱| 各個模組佔用的JVM程序數| 各個模組執行在幾個機器數上 |
| :------|||
| 本地模式| 1個| 1個|
| 偽分散式模式| N個| 1個|
| 完全分散式模式| N個| N個|
| HA完全分散式| N個| N個|


1.下載Hadoop安裝包[
Hadoop Download
]
解壓到/home/hadoop
2.修改配置檔案
增加環境變數-java-hadoop
 a.在系統環境變數中新增hadoop的PATH
 
 b.在/hadoop/etc的數個檔案中新增java的PATH
 包括
 yarn-env.sh
 mapred-env.sh
 hadoop-env.sh
 
 c.配置hadoop環境
 包括
 yarn-site.xml
 hdfs-site.xml
 core-site.xml
source


vmware克隆虛擬機器2份
關閉虛擬機器後,點選管理-克隆-建立完整克隆
重複克隆一次,兩個虛擬機器分別命名為slave1.slave2


分發到子機器

啟動start-dsf,yarn

啟動yarn的網頁host:http://localhost:8088/cluster

編輯時間:2018/4/9

教程還不是很完善,從markdown上粘過來很多東西都丟失啦。有問題請聯絡我。

教程參考了許許多多的網路資源和以下幾位的部落格,謝謝。

相關推薦

Hadoop2.9.0+VMware+ubuntu16.04完全分散式安裝指南-詳細

0.環境概要Linux:Ubuntu 16.04hadoop:Hadoop 2.9.0jdk:1.8.0vmware:14.0 pro1.Linux環境部署1.1第一步配置Vmware NAT網路    vmware虛擬機器的配置,主要是網路配置,選擇NAT網路,Ubuntu

Hive3.0.0基於hadoop2.9.1和ubuntu16.04安裝配置及問題解決【詳細

Hive3.0.0基於hadoop2.9.1+ubuntu16.04的安裝配置【超詳細過程】 在後面有很多配置過程中出現的問題的解決方法,主要參考部落格: https://www.cnblogs.com/pejsidney/p/8944305.html https://blog.csdn

hadoop2.9.0 hdfs環境搭建(偽分散式)

搭建hadoop2.9.0偽分散式步驟 使用了centos7,jdk1.8,hadoop2.9.0  版本算是很新的了.沒有使用什麼古老的版本. 1.      檢視自帶的jdk,解除安裝centos中自帶的jdk 檢視: rpm -qa |grep java 解除安

VMware + ubuntu16.04 Linux 下安裝、配置Gogs

自己 不知道 advance bsp 空間 home apt-get gogs systemctl 本文在Win7+VMware的ubuntu 16.04中測試。運行如下命令: sudo apt-get install git sudo adduser git # 為Go

PCL1.8.0Ubuntu16.04下的安裝及測試

1、安裝PCL之前,需要先安裝以下依賴項: sudo apt-get update sudo apt-get install git build-essential linux-libc-dev sudo apt-get install cmake cmake-gui

Ubuntu16.04完全離線安裝mysql

申明:本部落格的行文思路和大致內容轉載自http://www.cnblogs.com/JasonTech0713/p/6690949.html  與轉載部落格的區別在於,本部落格屬於在完全無網路下安裝及配置mysql,包括依賴包的安裝和相關包的下載連結 一、在官網下載mys

Hadoop完全分散式搭建流程---詳細

1.克隆兩個節點 2.修改靜態IP 3.修改主機名:【master(主),slave1(從),slave2(從)】 4.修改IP和主機名的對映:【/etc/hosts】 5.SSH無密登入: a.修改hostname $>su root $>gedi

Ubuntu 18.04雙系統安裝教程-詳細(原系統Win7,解決安裝完成後啟動Ubuntu進入GLUB的問題)

最近一段時間學習Python用的都是Ubuntu虛擬機器,從公司實習回來以後決定在自己電腦裡安裝一個Ubuntu的最新發行版Ubuntu18.04,按照網上的教程做完之後發現進入不了Ubuntu,而是進了GLUB,作為第一次在真機裝系統的小白當然有點慌了,去百度一頓搜尋試探之

hadoop分散式環境搭建(vmware14+hadoop2.9.0(包含yarn)+Ubuntu16.04LTS+jdk1.8.0_161)

      博主最近在vmware workstation14+hadoop2.9.0+Ubuntu16.04LTS環境下搭建了一個master(一個namenode)兩個slave(即兩個datanode)的分散式hadoop環境,下面將本次博主搭建的過程及步驟按照和各位博

hadoop2.7.3完全分散式安裝-docker-hive1.2.1-hiveserver2-weave1.9.3

0.環境介紹: 1)ubuntu14.04 docker映象 地址:https://github.com/gaojunhao/ubuntu14.04 2)hadoop2.7.3 地址:http://www.apache.org/dyn/closer.cgi/hadoop/c

Ubuntu16.04.3 下安裝Qt5.9.1 OpenCV3.2.0 (包括OpenCV_contrib)完美版

1.安裝Qt5.9.1 Qt官網址:https://download.qt.io/official_releases/qt/ 根據自己的需要選擇版本,這裡我選擇的是qt-opensource-linux-x64-5.9.1.run下載之後通過ctrl+alt

Hadoop2.9.0安裝

png oop ado 安裝 common .org sin 設置環境變量 pac 參考 https://hadoop.apache.org/docs/stable/hadoop-project-dist/hadoop-common/SingleCluster.html 1

開發人員學Linux(14):CentOS7安裝配置大數據平臺Hadoop2.9.0

hadoop hdfs yarn jdk 1.前言“大雲物移”是當年很火熱的一個話題,分別指大數據、雲計算、物聯網和移動互聯網,其中大數據領域談論得多就是Hadoop。當然Hadoop不代表大數據,而是大數據處理領域的一個比較有名的開源框架而已,通常說的大數據包含了大數據的存放、大數據的分析處

hadoop2.9.0單節點的安裝

前提條件:建立節點之間的無祕鑰訪問,安裝了jdk。 1、修改hadoop-env.sh export JAVA_HOME=/usr/elk/jdk1.8.0_131 2、vim etc/hadoop/core-site.xml <configuration>

Hadoop2.5.2叢集部署(完全分散式

環境介紹 硬體環境 CPU 4 MEM 4G 磁碟 60G  軟體環境 OS:centos6.5版本 64位 Hadoop:hadoop2.5.2 64位 JDK: JDK 1.8.0_91 主機配

ubuntu16.04下解除安裝Anaconda,升級python為3.5,安裝pip3,安裝tensorflow==1.0.0

解除安裝Anaconda (一)刪除整個anaconda目錄: 由於Anaconda的安裝檔案都包含在一個目錄中,所以直接將該目錄刪除即可。到包含整個anaconda目錄的資料夾下,刪除整個Anaconda目錄: sudo rm -rf anaconda資料夾名 (二)建議

Ubuntu16.04 32位 安裝Qt Creator 4.7.0

1、在網上下載Qt Creator的安裝檔案qt-sdk-linux-x86-opensource-2010.05.1.bin在命令端輸入以下命令列,啟動安裝。[email protected]:/home/XXX/SetUp# ./qt-sdk-linux-x86

虛擬機器(vmware)ubuntu16.04的擴容

2018/11/13 版本: VMware® Workstation 14 Pro; ubuntu 16.04 有兩種擴容方法: 1.建立一塊新的虛擬硬碟; 2.直接擴充套件根分割槽的大小 這裡呢,我們只考慮第二種。 選取擴容大小,等待擴容完畢之後

[環境配置]Ubuntu16.04下編譯安裝gcc6.3.0

上一篇的SVS要用gcc6.3編譯,否則結果不正確,本來以為gcc很好裝,結果發現用apt-get安裝gcc6只能安裝6.5版本,程式碼作者奇特的要求只能用gcc6.3,沒辦法只能用原始碼裝了,期間碰見了各種各樣的問題,特此記錄。 1.環境要求 安裝gcc之前要安裝gmp,mpfr,mpc,isl這幾個庫

Ubuntu16.04下同時安裝CUDA8.0和CUDA7.0

首先可以說明一點的是,在ubuntu16.04環境下CUDA8.0和CUDA7.0可以共存。筆者自己先安裝的是CUDA8.0,然後再安裝的CUDA7.0,安裝完CUDA8.0發現安裝CUDA7.0一直不成功,後面發現是16.04系統預設版本的GCC、g++版本過