1. 程式人生 > >pycharm上寫spark程式

pycharm上寫spark程式

     百度的一堆結果全是下面這樣:

 

感覺特別醉,這樣不說from pyspark import SparkContext時,pycharm會提示紅線,而且沒有自動補全,根本就不實用。

後來還是在Google上找到了個方法:

將$SPARK_HOME/python/pyspark複製到pycharm所使用的python直譯器預設會去尋找的模組目錄下,例如我的就是:

cp -r ~/Library/local/spark-2.2.0-bin-hadoop2.7/python/pyspark /Library/Python/2.7/site-packages

然後就行了。

可能還會需要安裝py4j,我是已經安裝了。

參考: