1. 程式人生 > >ubuntu18.04環境下hadoop3.1,spark虛擬機器分散式安裝筆記

ubuntu18.04環境下hadoop3.1,spark虛擬機器分散式安裝筆記

環境:Ubuntu18.04 LTS系統

虛擬機器:選擇的是Virtul Box,佔用資源比較少

安裝三個虛擬機器,主機名分別是:master、slave01、slave02,使用者名稱都設定為hadoop

設定網路,橋接模式,可以實現區域網訪問

系統安裝完畢後,更新系統,

sudo apt update
sudo apt upgrade

同時安裝vim

sudo apt install vim

修改hosts

修改hosts檔案,位於/ets/hosts,將master、slave01和slave02對應的ip地址和主機名輸入到每臺機器中

192.168.1.22    master
192.168.1.23    slave01
192.168.1.24    slave02

給使用者hadoop增加root許可權,切換到root下使用命令visudo

在
root         ALL=(ALL)       ALL
下面增加
hadoop   ALL=(ALL)       ALL

配置ssh免登陸

安裝openssh-server

在三臺機器上分別執行ssh-keygen -t rsa,然後回車至結束,在master上進入到根目錄下的.ssh資料夾

cat id_rsa.pub >> authorized_keys
scp authorized_keys hadoop@slave01:~/.ssh
scp authorized_keys hadoop@slave02
:~/.ssh

配置JDK1.8

Hadoop3.1.0要求最低JDK8.0,到官網下載壓縮版本解壓至任意目錄,然後新增環境變數

export JAVA_HOME=/home/hadoop/tools/jdk8
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export PATH=${JAVA_HOME}/bin:$PATH

以上配置JDK1.8操作需要分別對三臺機器同樣執行

配置Hadoop3.1.0

配置hadoop環境

# hadoop
export HADOOP_HOME=/home/hadoop/tools/hadoop3
export PATH=$PATH:${HADOOP_HOME}/bin:${HADOOP_HOME}/sbin

進入目錄/hadoop3/etc/hadoop進行一系列配置

**core-site.xml**
<configuration>
  <property>
    <name>fs.defaultFS</name>
     <value>hdfs://master:9000</value>
  </property>
  <property>
      <name>hadoop.tmp.dir</name>
      <value>file:///home/hadoop/tools/hadoop3/tmp</value>
  </property>
</configuration>

**hdfs-site.xml**
<configuration>
<property>
   <name>dfs.replication</name>
   <value>2</value>
 </property>
 <property>
   <name>dfs.namenode.name.dir</name>
   <value>file:///home/hadoop/tools/hadoop3/hdfs/name</value>
 </property>
 <property>
   <name>dfs.datanode.data.dir</name>
   <value>file:///home/hadoop/tools/hadoop3/hdfs/data</value>
 </property>
 <property>
   <name>dfs.namenode.secondary.http-address</name>
   <value>slave01:9001</value>
 </property>
</configuration>

**yarn-site.xml**
<configuration>

<!-- Site specific YARN configuration properties -->
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
    <property>
        <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
        <value>org.apache.hadoop.mapred.ShuffleHandle</value>
    </property>
    <property>
        <name>yarn.resourcemanager.resource-tracker.address</name>
        <value>master:8025</value>
    </property>
    <property>
        <name>yarn.resourcemanager.scheduler.address</name>
        <value>master:8030</value>
    </property>
    <property>
        <name>yarn.resourcemanager.address</name>
        <value>master:8040</value>
    </property>
</configuration>

**mapred-site.xml**
<configuration>
<property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
</property>

<property>
 <name>mapreduce.application.classpath</name>
 <value>
  /home/hadoop/tools/hadoop3/etc/hadoop,
  /home/hadoop/tools/hadoop3/share/hadoop/common/*,
  /home/hadoop/tools/hadoop3/share/hadoop/common/lib/*,
  /home/hadoop/tools/hadoop3/share/hadoop/hdfs/*,
  /home/hadoop/tools/hadoop3/share/hadoop/hdfs/lib/*,
  /home/hadoop/tools/hadoop3/share/hadoop/mapreduce/*,
  /home/hadoop/tools/hadoop3/share/hadoop/mapreduce/lib/*,
  /home/hadoop/tools/hadoop3/share/hadoop/yarn/*,
  /home/hadoop/tools/hadoop3/share/hadoop/yarn/lib/*
 </value>
</property>
</configuration>

**workers**
注意這邊修改的檔案就是目錄下的workers檔案,加入兩個slave機器名即可
slave01
slave02

**hadoop-env.sh**
在此檔案中加入
export JAVA_HOME=/home/hadoop/tools/jdk8

**yarn-env.sh**
在此檔案中加入
export JAVA_HOME=/home/hadoop/tools/jdk8

配置scala

# scala
# 在最後新增下面內容
export SCALA_HOME=/home/hadoop/tools/scala
export PATH=$PATH:${SCALA_HOME}/bin

配置spark

環境變數

# spark
export SPARK_HOME=/home/hadoop/tools/spark2
export PATH=$PATH:${SPARK_HOME}/bin:${SPARK_HOME}/sbin

配置/conf/spark-env.sh

cp spark-env.sh.template spark-env.sh
#配置內容如下:
export SCALA_HOME=/home/hadoop/tools/scala
export JAVA_HOME=/home/hadoop/tools/jdk8
export SPARK_MASTER_IP=master
export SPARK_WORKER_MEMORY=1g
export HADOOP_CONF_DIR=/home/hadoop/tools/hadoop3/etc/hadoop

配置/conf/slaves

cp slaves.template slaves
master
slave01
slave02

配置slave01和slave02的環境變數 /etc/profile

最後將配置好的hadoop3,spark2, scala,jdk8檔案複製到slave01和slave02節點

scp -r ----------- [email protected]:~/tools
scp -r ----------- [email protected]:~/tools

相關推薦

ubuntu18.04環境hadoop3.1,spark虛擬機器分散式安裝筆記

環境:Ubuntu18.04 LTS系統虛擬機器:選擇的是Virtul Box,佔用資源比較少 安裝三個虛擬機器,主機名分別是:master、slave01、slave02,使用者名稱都設定為hadoop設定網路,橋接模式,可以實現區域網訪問系統安裝完畢後,更新系統,sudo

安裝UBUNTU18.04環境的OpenCV3.4.1

安裝 cmake -D CMAKE_BUILD_TYPE=RELEASE -D CMAKE_INSTALL_PREFIX=/usr/local -D INSTALL_PYTHON_EXAMPLES=OFF -D INSTALL_C_EXAMPLES=OFF

虛擬機器ubuntu18.04環境hadoop2.9和hive3.0安裝

一、基礎環境和下載環境:ubuntu18,64位虛擬機器:virtualbox5.2下載hadoop2.9.1 https://mirrors.tuna.tsinghua.edu.cn/apache/hadoop/common/下載jdk1.8.0 http://www.or

Ubuntu18.04環境設定虛擬網絡卡

輸入命令:ipconfig進行檢視: 然後,進行新增命令: sudo gedit /etc/network/interfaces 在檔案中新增: auto enp8s0:1 iface

Ubuntu18.04 環境g++ 中出現error: stray ‘\357’ in program問題

環境: 程式設計環境:Ubuntu18.04 程式設計工具:vim 編譯工具:g++ 輸入法:搜狗 錯誤: 編譯報錯:error: stray '\357' in program 原因:在程式中打入了全形字元 具體分析產生原因: 在程式設計中,由於打字的快速,按下

ubuntu18.04環境編譯安裝opencv3.4

ubuntu18.04由於出來沒多久,很多應用也沒有很快就適配,而且由於系統配置環境的不熟悉,經常會出現一些不可預知的錯誤。下面記錄的是我電腦上安裝opencv3.4.0的安裝過程,網上這類教程很多,但是由於自己安裝過程中出現了幾個自己無法找到的問題,所以還是想記錄一下。

Ubuntu18.04環境melodic安裝gmapping

odi col 很多 cnblogs www. 解決 可能 geo https Ubuntu18.04 環境下melodic中很多包沒有提供sudo apt install的安裝方式,需要通過源代碼安裝,安裝方法如下: 1、先安裝依賴庫: sudo apt-get

虛擬機器Ubuntu18.04 root 連線 windows 中 winScp

先檢視自己虛擬機器中是否有 ssh服務  如果沒有的話先安裝   apt-get install openssh-server 安裝完之後 先手動開啟一下服務 /etc/init.d/ssh restart 檢視ssh的服務埠

ubuntu18.04+CUDA9.0+cuDNN7.1.4+tensorflow1.9 環境搭建

1. 主機配置說明 在前幾天,得知公司新採購了幾臺主機,所以我們組領導就向公司申請了一臺回來,做資料分析。 伺服器買的是惠普的主機,型號是:HP EliteDesk 800 G3。不算強勁,但用來做GPU的資料分析測試,也可以了。具體引數:CPU:i7-7700記憶體: 32G顯示卡: GTX 1070硬

Ubuntu16.04環境搭建Hadoop3.0.3偽分散式叢集

    最近剛好趕上雙11騰訊促銷,於是搶購了一個8核16G記憶體的雲伺服器,加上業務上需要用到hadoop,hive,於是想搭建搭建一個hadoop分散式叢集,但是限於自己手頭上伺服器數量不多,因此打算先搭建一個hadoop偽分散式叢集。   首先介紹一下我的安裝

Ubuntu18.06 Mate桌面環境VirtuslBox打開虛擬機“全局菜單”異常退出解決辦法

info style size 選項 span 圖片 .com 啟用 box 在安裝完Ubuntu18.06 Mate桌面環境後在VirtuslBox裏打開虛擬機會出現“全局菜單”異常退出問題。 產生上面問題的原因是你的虛擬機可能在 顯示= >屏幕= >硬件加

ubuntu18.04搭建Hyperledger-fabric 1.1.0開發環境

Hyperledger-fabric 1.1.0更新已經兩三個月了,ubuntu18.04也更新了快一個月了。今天在ubuntu18. 04上進行了Hyperledger-fabric 1.1.0的環境搭建,現在把過程記錄下來。 Go語言環境 下載Go環

Ubuntu16.04Hadoop3.1安裝與配置

1. 下載壓縮包 Hadoop環境需要安裝java,若未安裝見:java下載與安裝 然後到官網下載對應的安裝包,然後解壓到本地目錄下. 2. 配置環境變數 sudo gedit

Caffe學習1——在ubuntu16.04環境安裝Caffe(CPU)

目前在網上,已經存在很多的Caffe安裝教程。本文主要介紹筆者在安裝Caffe——CPU版本所遇到的問題(主要參考了網上的  部落格) ,以及相關解決方法。以下給出基於ubuntu 16.04系統的Caffe的CPU安裝步驟:1. 安裝gitsudo apt-get inst

Ubuntu16.04環境Vim 配置 for HTML,CSS,JAVASCRIPT(1)

vimr vimrc ref res runt sta all mpat () 參考了三篇文章: VIM配置---面向前端 使用Vundle管理配置Vim基本插件 CSS 語法高亮 1、安裝Vundle git clone https://github.com/Vund

win10環境VTK7.1的編譯和Qt調用VTK的詳細教程二(VS2013編譯支持Qt的VTK庫)

span ble 導致 解決方法 log 發現 ear files 沒有 本文主要用於編譯支持Qt的VTK庫,重點在於編譯VTK庫,供Qt調用。 第1步:新建一個文件夾:vtkDir 第2步:在該文件夾下新建兩個文件夾vtk_bin、vtk_src 第3步:將下載好的V

Linux環境配置vsftpd的虛擬用戶

none 5.1 txt CA cal hid cif size start 環境:CentOS Linux release 7.4.1708 (Core) vsftpd版本:vsftpd: version 3.0.2 1、安裝vsftpd# yum -y install

Ubuntu18.04環境安裝Docker CE

建立 REPOSITORY 1.更新索引包    更新 /etc/apt/sources.list 和 /etc/apt/sources.list.d 中列出的源的地址,這樣才能獲取到最新的軟體包 sudo apt-get update   2.獲取HTTPS

Ubuntu18.04 LTS安裝python3.67安裝步驟

Ubuntu18.04 LTS下安裝python3.67安裝步驟 Ubuntu18.04 LTS中自帶python3.6.5。 目前最新版本是python3.67 在終端中輸入下面的命令 wget http://www.python.org/ftp/py

Ubuntu16.04環境通過Cmake管理Opencv專案

Ubuntu16.04環境下通過Cmake管理Opencv專案 1、新建qt cmake工程 New Project -> Non-Qt Project -> Plain C++ Application 2、CMakeLists.txt檔案內