1. 程式人生 > >Spark2.4.0偽分布式環境搭建

Spark2.4.0偽分布式環境搭建

hadoop webui 路徑 安裝 title temp env idt ava

一、搭建環境的前提條件

  環境:ubuntu-16.04

     hadoop-2.6.0

     jdk1.8.0_161。

     spark-2.4.0-bin-hadoop2.6。這裏的環境不一定需要和我一樣,基本版本差不多都ok的,但註意這裏spark要和hadoop版本相對應。所需安裝包和壓縮包自行下載即可。

  因為這裏是配置spark的教程,首先必須要配置Hadoop,配置Hadoop的教程在Hadoop2.0偽分布式平臺環境搭建。配置Java以及安裝VMware Tools就自行百度解決哈,這裏就不寫了(因為教程有點長,可能有些地方有些錯誤,歡迎留言評論,我會在第一時間修改的)。

二、搭建的詳細步驟

  1、首先確保Hadoop偽分布式環境正在運行

    技術分享圖片

  2、首先對spark安裝包解壓縮

tar -zxvf spark-2.4.0-bin-hadoop2.6

    技術分享圖片

  3、進入spark/conf修改配置文件

cd spark-2.4.0-bin-hadoop2.6/
cd conf/
cp spark-env.sh.template spark-env.sh

    然後在spark-env.sh文件最後添加內容  

vim spark-env.sh 

    技術分享圖片

  4、配置環境變量

vim ~/.bashrc

    在文件最後加入spark的路徑

    技術分享圖片

    保存使其立即生效。

source ~/.bashrc

  5、啟動spark

cd ..
sbin/start-all.sh

    技術分享圖片

   jps查看進程

    技術分享圖片

    出現上面這些節點說明搭建成功。

  6、webUI查看

http://localhost:8080/

    技術分享圖片

  7、若搭建成功的命令行界面,註意路徑

    技術分享圖片

    退出命令為 :quit

Spark2.4.0偽分布式環境搭建