ubuntu18.04環境下hadoop3.1,spark虛擬機器分散式安裝筆記
環境:Ubuntu18.04 LTS系統
虛擬機器:選擇的是Virtul Box,佔用資源比較少
安裝三個虛擬機器,主機名分別是:master、slave01、slave02,使用者名稱都設定為hadoop
設定網路,橋接模式,可以實現區域網訪問
系統安裝完畢後,更新系統,
sudo apt update
sudo apt upgrade
同時安裝vim
sudo apt install vim
修改hosts
修改hosts檔案,位於/ets/hosts,將master、slave01和slave02對應的ip地址和主機名輸入到每臺機器中
192.168.1.22 master 192.168.1.23 slave01 192.168.1.24 slave02
給使用者hadoop增加root許可權,切換到root下使用命令visudo
在
root ALL=(ALL) ALL
下面增加
hadoop ALL=(ALL) ALL
配置ssh免登陸
安裝openssh-server
在三臺機器上分別執行ssh-keygen -t rsa
,然後回車至結束,在master上進入到根目錄下的.ssh資料夾
cat id_rsa.pub >> authorized_keys
scp authorized_keys hadoop@slave01:~/.ssh
scp authorized_keys hadoop@slave02 :~/.ssh
配置JDK1.8
Hadoop3.1.0要求最低JDK8.0,到官網下載壓縮版本解壓至任意目錄,然後新增環境變數
export JAVA_HOME=/home/hadoop/tools/jdk8
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export PATH=${JAVA_HOME}/bin:$PATH
以上配置JDK1.8操作需要分別對三臺機器同樣執行
配置Hadoop3.1.0
配置hadoop環境
# hadoop export HADOOP_HOME=/home/hadoop/tools/hadoop3 export PATH=$PATH:${HADOOP_HOME}/bin:${HADOOP_HOME}/sbin
進入目錄/hadoop3/etc/hadoop進行一系列配置
**core-site.xml**
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://master:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>file:///home/hadoop/tools/hadoop3/tmp</value>
</property>
</configuration>
**hdfs-site.xml**
<configuration>
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>file:///home/hadoop/tools/hadoop3/hdfs/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>file:///home/hadoop/tools/hadoop3/hdfs/data</value>
</property>
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>slave01:9001</value>
</property>
</configuration>
**yarn-site.xml**
<configuration>
<!-- Site specific YARN configuration properties -->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandle</value>
</property>
<property>
<name>yarn.resourcemanager.resource-tracker.address</name>
<value>master:8025</value>
</property>
<property>
<name>yarn.resourcemanager.scheduler.address</name>
<value>master:8030</value>
</property>
<property>
<name>yarn.resourcemanager.address</name>
<value>master:8040</value>
</property>
</configuration>
**mapred-site.xml**
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<property>
<name>mapreduce.application.classpath</name>
<value>
/home/hadoop/tools/hadoop3/etc/hadoop,
/home/hadoop/tools/hadoop3/share/hadoop/common/*,
/home/hadoop/tools/hadoop3/share/hadoop/common/lib/*,
/home/hadoop/tools/hadoop3/share/hadoop/hdfs/*,
/home/hadoop/tools/hadoop3/share/hadoop/hdfs/lib/*,
/home/hadoop/tools/hadoop3/share/hadoop/mapreduce/*,
/home/hadoop/tools/hadoop3/share/hadoop/mapreduce/lib/*,
/home/hadoop/tools/hadoop3/share/hadoop/yarn/*,
/home/hadoop/tools/hadoop3/share/hadoop/yarn/lib/*
</value>
</property>
</configuration>
**workers**
注意這邊修改的檔案就是目錄下的workers檔案,加入兩個slave機器名即可
slave01
slave02
**hadoop-env.sh**
在此檔案中加入
export JAVA_HOME=/home/hadoop/tools/jdk8
**yarn-env.sh**
在此檔案中加入
export JAVA_HOME=/home/hadoop/tools/jdk8
配置scala
# scala # 在最後新增下面內容 export SCALA_HOME=/home/hadoop/tools/scala export PATH=$PATH:${SCALA_HOME}/bin
配置spark
環境變數
# spark
export SPARK_HOME=/home/hadoop/tools/spark2
export PATH=$PATH:${SPARK_HOME}/bin:${SPARK_HOME}/sbin
配置/conf/spark-env.sh
cp spark-env.sh.template spark-env.sh
#配置內容如下: export SCALA_HOME=/home/hadoop/tools/scala export JAVA_HOME=/home/hadoop/tools/jdk8 export SPARK_MASTER_IP=master export SPARK_WORKER_MEMORY=1g export HADOOP_CONF_DIR=/home/hadoop/tools/hadoop3/etc/hadoop
配置/conf/slaves
cp slaves.template slaves
master
slave01
slave02
配置slave01和slave02的環境變數 /etc/profile
最後將配置好的hadoop3,spark2, scala,jdk8檔案複製到slave01和slave02節點
scp -r ----------- [email protected]:~/tools scp -r ----------- [email protected]:~/tools
相關推薦
ubuntu18.04環境下hadoop3.1,spark虛擬機器分散式安裝筆記
環境:Ubuntu18.04 LTS系統虛擬機器:選擇的是Virtul Box,佔用資源比較少 安裝三個虛擬機器,主機名分別是:master、slave01、slave02,使用者名稱都設定為hadoop設定網路,橋接模式,可以實現區域網訪問系統安裝完畢後,更新系統,sudo
安裝UBUNTU18.04環境下的OpenCV3.4.1
安裝 cmake -D CMAKE_BUILD_TYPE=RELEASE -D CMAKE_INSTALL_PREFIX=/usr/local -D INSTALL_PYTHON_EXAMPLES=OFF -D INSTALL_C_EXAMPLES=OFF
虛擬機器ubuntu18.04環境下hadoop2.9和hive3.0安裝
一、基礎環境和下載環境:ubuntu18,64位虛擬機器:virtualbox5.2下載hadoop2.9.1 https://mirrors.tuna.tsinghua.edu.cn/apache/hadoop/common/下載jdk1.8.0 http://www.or
Ubuntu18.04環境下設定虛擬網絡卡
輸入命令:ipconfig進行檢視: 然後,進行新增命令: sudo gedit /etc/network/interfaces 在檔案中新增: auto enp8s0:1 iface
Ubuntu18.04 環境下g++ 中出現error: stray ‘\357’ in program問題
環境: 程式設計環境:Ubuntu18.04 程式設計工具:vim 編譯工具:g++ 輸入法:搜狗 錯誤: 編譯報錯:error: stray '\357' in program 原因:在程式中打入了全形字元 具體分析產生原因: 在程式設計中,由於打字的快速,按下
ubuntu18.04環境下編譯安裝opencv3.4
ubuntu18.04由於出來沒多久,很多應用也沒有很快就適配,而且由於系統配置環境的不熟悉,經常會出現一些不可預知的錯誤。下面記錄的是我電腦上安裝opencv3.4.0的安裝過程,網上這類教程很多,但是由於自己安裝過程中出現了幾個自己無法找到的問題,所以還是想記錄一下。
Ubuntu18.04環境下melodic安裝gmapping
odi col 很多 cnblogs www. 解決 可能 geo https Ubuntu18.04 環境下melodic中很多包沒有提供sudo apt install的安裝方式,需要通過源代碼安裝,安裝方法如下: 1、先安裝依賴庫: sudo apt-get
虛擬機器Ubuntu18.04 root下 連線 windows 中 winScp
先檢視自己虛擬機器中是否有 ssh服務 如果沒有的話先安裝 apt-get install openssh-server 安裝完之後 先手動開啟一下服務 /etc/init.d/ssh restart 檢視ssh的服務埠
ubuntu18.04+CUDA9.0+cuDNN7.1.4+tensorflow1.9 環境搭建
1. 主機配置說明 在前幾天,得知公司新採購了幾臺主機,所以我們組領導就向公司申請了一臺回來,做資料分析。 伺服器買的是惠普的主機,型號是:HP EliteDesk 800 G3。不算強勁,但用來做GPU的資料分析測試,也可以了。具體引數:CPU:i7-7700記憶體: 32G顯示卡: GTX 1070硬
Ubuntu16.04環境下搭建Hadoop3.0.3偽分散式叢集
最近剛好趕上雙11騰訊促銷,於是搶購了一個8核16G記憶體的雲伺服器,加上業務上需要用到hadoop,hive,於是想搭建搭建一個hadoop分散式叢集,但是限於自己手頭上伺服器數量不多,因此打算先搭建一個hadoop偽分散式叢集。 首先介紹一下我的安裝
Ubuntu18.06 Mate桌面環境下VirtuslBox打開虛擬機“全局菜單”異常退出解決辦法
info style size 選項 span 圖片 .com 啟用 box 在安裝完Ubuntu18.06 Mate桌面環境後在VirtuslBox裏打開虛擬機會出現“全局菜單”異常退出問題。 產生上面問題的原因是你的虛擬機可能在 顯示= >屏幕= >硬件加
ubuntu18.04搭建Hyperledger-fabric 1.1.0開發環境
Hyperledger-fabric 1.1.0更新已經兩三個月了,ubuntu18.04也更新了快一個月了。今天在ubuntu18. 04上進行了Hyperledger-fabric 1.1.0的環境搭建,現在把過程記錄下來。 Go語言環境 下載Go環
Ubuntu16.04下Hadoop3.1的安裝與配置
1. 下載壓縮包 Hadoop環境需要安裝java,若未安裝見:java下載與安裝 然後到官網下載對應的安裝包,然後解壓到本地目錄下. 2. 配置環境變數 sudo gedit
Caffe學習1——在ubuntu16.04環境下安裝Caffe(CPU)
目前在網上,已經存在很多的Caffe安裝教程。本文主要介紹筆者在安裝Caffe——CPU版本所遇到的問題(主要參考了網上的 部落格) ,以及相關解決方法。以下給出基於ubuntu 16.04系統的Caffe的CPU安裝步驟:1. 安裝gitsudo apt-get inst
Ubuntu16.04環境下Vim 配置 for HTML,CSS,JAVASCRIPT(1)
vimr vimrc ref res runt sta all mpat () 參考了三篇文章: VIM配置---面向前端 使用Vundle管理配置Vim基本插件 CSS 語法高亮 1、安裝Vundle git clone https://github.com/Vund
win10環境下VTK7.1的編譯和Qt調用VTK的詳細教程二(VS2013編譯支持Qt的VTK庫)
span ble 導致 解決方法 log 發現 ear files 沒有 本文主要用於編譯支持Qt的VTK庫,重點在於編譯VTK庫,供Qt調用。 第1步:新建一個文件夾:vtkDir 第2步:在該文件夾下新建兩個文件夾vtk_bin、vtk_src 第3步:將下載好的V
Linux環境下配置vsftpd的虛擬用戶
none 5.1 txt CA cal hid cif size start 環境:CentOS Linux release 7.4.1708 (Core) vsftpd版本:vsftpd: version 3.0.2 1、安裝vsftpd# yum -y install
Ubuntu18.04環境安裝Docker CE
建立 REPOSITORY 1.更新索引包 更新 /etc/apt/sources.list 和 /etc/apt/sources.list.d 中列出的源的地址,這樣才能獲取到最新的軟體包 sudo apt-get update 2.獲取HTTPS
Ubuntu18.04 LTS下安裝python3.67安裝步驟
Ubuntu18.04 LTS下安裝python3.67安裝步驟 Ubuntu18.04 LTS中自帶python3.6.5。 目前最新版本是python3.67 在終端中輸入下面的命令 wget http://www.python.org/ftp/py
Ubuntu16.04環境下通過Cmake管理Opencv專案
Ubuntu16.04環境下通過Cmake管理Opencv專案 1、新建qt cmake工程 New Project -> Non-Qt Project -> Plain C++ Application 2、CMakeLists.txt檔案內