1. 程式人生 > >【Hadoop】在Ubuntu系統下安裝Spark

【Hadoop】在Ubuntu系統下安裝Spark

clas 進行 運行 輸出結果 oca .com 修改 我們 with

Spark 版本:spark-2.4.0-bin-without-hadoop.tgz

下載地址:http://spark.apache.org/downloads.html

下載的時候註意一下,需要下的是最新版本的無 hadoop 版本,因為我們已經在之前裝過 hadoop 了。


安裝 Spark

sudo tar -zxf ~/Downloads/spark-2.4.0-bin-without-hadoop.tgz -C /usr/local/
cd /usr/local
sudo mv ./spark-2.4.0-bin-without-hadoop/ ./spark
sudo chown -R hadoop:hadoop ./spark  

修改 Spark 的配置文件:spark-env.sh

cd /usr/local/spark
cp ./conf/spark-env.sh.template ./conf/spark-env.sh

編輯文件 spark-env.sh ( vim ./conf/spark-env.sh ),在第一行添加 hadoop 配置信息:

export SPARK_DIST_CLASSPATH=$(/usr/local/hadoop/bin/hadoop classpath)

技術分享圖片

保存退出就可以直接使用,同時我也配置了我的 Java 路徑(可選)。

運行 Spark 自帶的示例,驗證 Spark 是否安裝成功:

cd /usr/local/spark
bin/run-example SparkPi

行時會輸出非常多的運行信息,輸出結果不容易找到,可以通過 grep 命令進行過濾(命令中的 2>&1 可以將所有的信息都輸出到 stdout 中,否則由於輸出日誌的性質,還是會輸出到屏幕中):

bin/run-example SparkPi 2>&1 | grep "Pi is"

可以看到 Spark 成功安裝。

技術分享圖片

【Hadoop】在Ubuntu系統下安裝Spark