在Windows下用Eclipse開發和執行Spark程式
阿新 • • 發佈:2019-02-13
我們想現在windows環境下開發除錯好spark程式,然後打包,最後放到linux spark叢集環境去執行。
Windows環境準備
Windows本地測試執行
打包
為了可以選擇哪些第三方庫打進jar包,我們需要安裝Fat Jar Eclipse外掛。
- 由於我們下載的Scala Eclipse版本較高,最新的Fat Jar不支援,請參考這篇文章進行安裝 Fat Jar:http://blog.csdn.net/gfxjj123/article/details/51163453 。安裝外掛的時候,請注意看Eclipse右下角的進度條。
- 安裝好Fat Jar之後,具體怎麼打包,可以參考這篇文章:
提交Spark叢集
在spark叢集中的一臺機器上執行類似於這樣的命令:
spark-submit --class com.zxhy.LocalWordCount --master yarn --deploy-mode client --executor-memory 1g --num-executors 3 --name wordcount --conf "spark.app.id=Localwordcount" /home/hadoop/localwordcount_fat.jar