事無鉅細 Spark 1.6.1 叢集環境搭建
阿新 • • 發佈:2018-12-23
還是在之前的Hadoop叢集環境上繼續搭建Spark-1.6.1環境
下載安裝
下載Spark並解壓
wget http://mirrors.cnnic.cn/apache/spark/spark-1.6.1/spark-1.6.1-bin-hadoop2.6.tgz
tar -xvzf spark-1.6.1-bin-hadoop2.6.tgz -C /home/dps-hadoop/
改個舒服的名字
mv spark-1.6.1-bin-hadoop2.6/ spark-1.6.1
配置環境變數
同樣,修改.bashrc檔案
vim ~/.bashrc
新增內容
export SPARK_HOME =$HOME/spark-1.6.1
export PATH=$PATH:$HOME/bin:$HIVE_HOME/bin:$SPARK_HOME/bin
立即生效
source ~/.bashrc
配置Spark
拷貝一份配置檔案模版
cp conf/slaves.template conf/slaves
修改slaves內容如下
master
slave15
slave16
其餘走預設(這點來看,Spark真的很方便),將安裝包拷貝到叢集的其他節點。
scp -r spark-1.6.1/ slave15:~/
scp -r spark-1.6.1/ slave16:~/
啟動叢集
啟動主節點
sbin/start-master.sh
啟動從節點
sbin/start-slaves.sh
通過 Web UI檢視,一切ok