1. 程式人生 > >spark一些入門資料

spark一些入門資料

ram 代碼 try off archive data 對話框 work 版本號

spark一些入門資料


A Scala Tutorial for Java Programmers

http://docs.scala-lang.org/tutorials/scala-for-java-programmers.html


學習資源(視頻教程,書,樣例等)

spark.apache.org/documentation.html

入門指南

spark.apache.org/docs/latest/quick-start.html

編程指南

spark.apache.org/docs/latest/programming-guide.html

官網自帶樣例(極好,有local版。有spark版)

https://github.com/apache/spark/tree/master/examples/src/main/scala/org/apache/spark/examples

運行spark應用(利用spark-submit命令。事實上最底層是java調用)

spark.apache.org/docs/latest/submitting-applications.html

./spark-submit --class"SimpleApp" --master local[4] /home/linger/scala_target/SimpleApp.jar

運行官網自帶的example能夠利用run-example。該腳本封裝了spark-submit命令。

./run-example SparkPi

run-example腳本有這麽一句 EXAMPLE_MASTER=${MASTER:-"local[*]"}默認master是local[*]。

依據這句shell,能夠有一個方法改變著master。

在調用該腳本之前,export MASTER=local(或者其它)。

眼下不知道是否還有其它方法傳遞MASTER這個變量。

spark 開發環境搭建(不錯)

http://blog.csdn.net/wankunde/article/details/41843217

http://bit1129.iteye.com/blog/2172164

設置完畢後,Error視圖報錯。說Eclipse依賴的Scala庫有兩份,一個是系統安裝的Scala(C:\Scala_2.11.4,一個是spark-assembly-1.2.0-hadoop2.4.0.jar中,而spark-assembly-1.2.0-hadoop2.4.0.jar中的版本號是2.10.4。因此兩個版本號不一致而導致沖突

由於我們的代碼是在Spark中執行。而Spark使用的Scala版本號是2.10.4。所以。開發環境中的Scala也應該是2.10.4。因此將2.11.4這個Scala庫從Java Build Path刪除掉

刪除了之後。Eclipse繼續報錯,例如以下所看到的,也就是說。項目依賴的Scala版本號不如IDE的Scala版本號新。解決的方法例如以下

右擊前面建的Scala項目,在右鍵彈出菜單中。選擇Scala。然後在級聯菜單中,選擇Set Scala Installation,在彈出的對話框中選擇,Fixed Scala Installation:2.10.4(bundled)

clean整個項目,Scala IDE的環境到此就配置完畢了。

scala-eclipse執行出現錯誤

java.lang.ClassNotFoundException

scala-ide

http://scala-ide.org/download/sdk.html


sbt是scala的構建工具

www.scala-sbt.org/documentation.html

sbt安裝有點坑啊,安裝完之後啟動sbt還要下載東西

http://www.zhihu.com/question/23245141

SBT免FQ手冊

http://afoo.me/posts/2014-11-05-how-make-sbt-jump-over-GFW.html

離線環境下構建sbt項目

http://shzhangji.com/blog/2014/11/07/sbt-offline/

Scala SBT 第一次執行時下載文件失敗

http://mooc.guokr.com/note/5879/

http://segmentfault.com/blog/zhongl/1190000002474507

加速 SBT 下載依賴庫的速度

http://ju.outofmemory.cn/entry/74281

問候sbt一千遍之:加入全局鏡像庫

spark和機器學習技術博客

http://www.cnblogs.com/fxjwind/

http://blog.csdn.net/sunbow0

--------------------------------------------------------------------------------------------------------------------

Spark執行調試方法與學習資源匯總

http://blog.csdn.net/melodyishere/article/details/32353929

IntelliJ IDEA 安裝scala插件。建立scalawith sbt project 的方法

http://8liang.cn/intellijidea-install-scala-plugin-create-with-sbt-project/

Apache spark的IntelliJ IDEA 開發環境搭建

http://8liang.cn/intellij-idea-spark-development/

Spark作業代碼(源代碼)IDE遠程調試

http://www.iteblog.com/archives/1192

利用eclipse構建spark集成開發環境

http://datalab.int-yt.com/archives/505

Apache Spark學習:利用Eclipse構建Spark集成開發環境

http://dongxicheng.org/framework-on-yarn/spark-eclipse-ide/


spark一些配置信息

http://spark.apache.org/docs/latest/configuration.html


本文作者:linger

本文鏈接:http://blog.csdn.net/lingerlanlan/article/details/46430915



spark一些入門資料