1. 程式人生 > >windows環境安裝spark,無法匯入pyspark模組

windows環境安裝spark,無法匯入pyspark模組

隨便開啟一個project,pycharm右上角“run”三角形的左邊有一個edit configurition,開啟它。

 設定configurition---Environment--- Environment variables ---點選“...”,出現框框,點選+,

輸入兩個name,

一個是SPARK_HOME  =  D:/spark-2.1.1-bin-hadoop2.7

一個是PYTHONPATH  =  D:/spark-2.1.1-bin-hadoop2.7/python設定好了儲存。

setting中project structure中點選右邊的“add  content root”,新增py4j-some-version.zip和pyspark.zip的路徑(這兩個檔案都在Spark中的python資料夾下)

7 完成,from pyspark import SparkContext,紅線消失,執行正常。

8.永久配置環境變數