1. 程式人生 > >spark-submit 報錯 Initial job has not accepted any resources

spark-submit 報錯 Initial job has not accepted any resources

錯誤原因是記憶體缺少資源

如果是master使用yarn-client模式則會讀取conf/spark-env.sh中的配置。

如果是master使用yarn-cluster模式則會讀取conf/spark-default.conf中的配置。

我的虛擬機器記憶體只有1g,所以spark-env.sh配置

export SPARK_WORKER_MEMORY=800m

但是在我執行spark-submit的時候沒有加 --executor-memory引數,spark-submit預設提交任務的時候是1024m

解決辦法是 spark-submit 後面加--executor-memory 512m就執行正常了