1. 程式人生 > >記一個在pycharm配置spark的坑

記一個在pycharm配置spark的坑

在完全配置以下環境後:

jdk:1.8

spark:2.1

python:3.5

pip install pyspark==2.3

完成以上配置後,在pycharm中只能對RDD作collect()操作,其它操作總會報號 ‘int' can't itener 錯誤

以為是沒有安裝scala引起的失誤,安裝scala2.12.3之後還是不行,試著安裝spark-2.3.0版本,結果終於可以了,果然是個大坑啊....希望可以幫到路過的朋友,繞過這個坑......