1. 程式人生 > >1.0 阿里雲環境開發準備

1.0 阿里雲環境開發準備

 

 

1 開發環境準備

目錄

1 開發環境準備

1.1 下載並解壓spark包

1.2 設定環境變數

1.3 設定Spark-defaults.conf


1.1 下載並解壓spark包

  1. 下載Spark on MaxCompute安裝包,本專案中使用的是spark-1.6.3-public進行開發。
  2. 將下載好的spark包解壓至C盤根目錄中。

1.2 設定環境變數

JAVA_HOME設定

export JAVA_HOME=/path/to/jdk
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export PATH=$JAVA_HOME/bin:$PATH

SPARK_HOME設定

export SPARK_HOME=/path/to/spark_extracted_package
export PATH=$SPARK_HOME/bin:$PATH

1.3 設定Spark-defaults.conf

在$SPARK_HOME/conf路徑下存在spark-defaults.conf檔案,需要在該檔案中設定MaxCompute相關的賬號資訊後,才可以提交Spark任務到MaxCompute。預設配置內容如下,將空白部分根據實際的賬號資訊填上即可。

注:name:  UAES_Test

       id:    LTAIvB7OxN8s5rqU 

       key:   i6UFXAVkIrcknAsR6PU4KFe8StLrGJ

# OdpsAccount Info Setting
spark.hadoop.odps.project.name=
spark.hadoop.odps.access.id=
spark.hadoop.odps.access.key=
spark.hadoop.odps.end.point=
#spark.hadoop.odps.moye.trackurl.host=
#spark.hadoop.odps.cupid.webproxy.endpoint=
spark.sql.catalogImplementation=odps
# spark-shell Setting
spark.driver.extraJavaOptions -Dscala.repl.reader=com.aliyun.odps.spark_repl.OdpsIntera
ctiveReader -Dscala.usejavacp=true
# SparkR Setting
# odps.cupid.spark.r.archive=/path/to/R-PreCompile-Package.zip
# Cupid Longtime Job
# spark.hadoop.odps.cupid.engine.running.type=longtime
# spark.hadoop.odps.cupid.job.capability.duration.hours=8640
# spark.hadoop.odps.moye.trackurl.dutation=8640
# spark.r.command=/home/admin/R/bin/Rscript
# spark.hadoop.odps.cupid.disk.driver.enable=false
spark.hadoop.odps.cupid.bearer.token.enable=false
spark.hadoop.odps.exec.dynamic.partition.mode=nonstrict