1. 程式人生 > >[Spark]Spark與Anaconda配置(Python)

[Spark]Spark與Anaconda配置(Python)

對於Python開發者來說,使用Anaconda是很爽的。linux安裝好後,如何在pyspark中也可以使用Anaconda呢?這裡筆者研讀了下pyspark的指令碼,這裡給出解決方案。

安裝Anaconda後,需要配置下bash_profile檔案。

export PYSPARK_PYTHON=/home/peiwen/anaconda2/bin
export IPYTHON="1"
(PS:直接在pyspark指令碼前面加上export IPYTHON="1"也是很不錯的選擇) 並且將PYSPARK_PYTHON新增到PATH中去。 我的配置檔案如下:
完事以後source 下。。 這個時候,再./bin/pyspark,就搞定啦

簡直是Python使用者開發Spark的利器呀。。