1. 程式人生 > >Spark通過Java Web提交任務

Spark通過Java Web提交任務

相關軟體版本:

Spark1.4.1 ,Hadoop2.6,Scala2.10.5 , MyEclipse2014,intelliJ IDEA14,JDK1.8,Tomcat7

機器:

windows7 (包含JDK1.8,MyEclipse2014,IntelliJ IDEA14,TOmcat7);

centos6.6虛擬機器(Hadoop偽分散式叢集,Spark standAlone叢集,JDK1.8);

centos7虛擬機器(Tomcat,JDK1.8);

1. 場景:
1. windows簡單java程式呼叫Spark,執行Scala開發的Spark程式,這裡包含兩種模式:


    1> 提交任務到Spark叢集,使用standAlone模式執行;

    2> 提交任務到Yarn叢集,使用yarn-client的模式;

2. windows 開發java web程式呼叫Spark,執行Scala開發的Spark程式,同樣包含兩種模式,參考1.

3. linux執行java web程式呼叫Spark,執行Scala開發的Spark程式,包含兩種模式,參考1.



2. 實現:
1. 簡單Scala程式,該程式的功能是讀取HDFS中的log日誌檔案,過濾log檔案中的WARN和ERROR的記錄,最後把過濾後的記錄寫入到HDFS中,程式碼如下:



[Bash shell] 純文字檢視 複製程式碼
01 import org.apache.spark.{SparkConf, SparkContext}
02
03
04 /**
05 * Created by Administrator on 2015/8/23.
06 */
07 object Scala_Test {
08 def main(args:Array[String]): Unit ={
09 if(args.length!=2){
10 System.err.println("Usage:Scala_Test <input> <output>")
11 }
12 // 初始化SparkConf
13 val conf = new SparkConf().setAppName("Scala filter")

相關推薦

Spark通過Java Web提交任務

相關軟體版本: Spark1.4.1 ,Hadoop2.6,Scala2.10.5 , MyEclipse2014,intelliJ IDEA14,JDK1.8,Tomcat7 機器: windows7 (包含JDK1.8,MyEclipse2014,I

Java Web提交任務Spark Spark通過Java Web提交任務

相關軟體版本:Spark1.4.1 ,Hadoop2.6,Scala2.10.5 , MyEclipse2014,intelliJ IDEA14,JDK1.8,Tomcat7機器:windows7 (包含JDK1.8,MyEclipse2014,IntelliJ IDEA14

Java Web提交任務Spark

相關軟體版本:Spark1.4.1 ,Hadoop2.6,Scala2.10.5 , MyEclipse2014,intelliJ IDEA14,JDK1.8,Tomcat7機器:windows7 (包含JDK1.8,MyEclipse2014,IntelliJ IDEA14

hive on spark通過YARN-client提交任務不成功

在Hive on spark中  設定spark.master 為 yarn-client , 提交HiveQL任務到yarn上執行,發現任務無法執行 輸出一下錯誤: 可以看到 Hive on S

Spark通過Jar包提交任務

Standalone需要通過bin/spark-submit來提交必需引數 --class --master舉例如下:/home/bigdata/hadoop/spark-2.1.1-bin-hadoop2.7/bin/spark-submit \ --class org.a

通過java web代理將docker容器配置為jenkins節點

1、安裝centos映象 docker search centos                  //查詢映象 docker pull centos      &nbs

java web定時任務---quartz

寫在前面:   前面有簡單的記錄下Timer定時的用法,但是在此次專案中,選擇的是quartz來完成定時操作任務的。兩者都可以完成定時操作,但是spring可以整合quartz,並且配置起來也比較簡便,還可以同時跑多個任務。就選擇了quartz,quartz的用法也很強大,

Spark 提升spark1.6提交任務速度+配置spark2.x後hiveserver2執行失敗

spark提升提交任務速度 在spark-defaults.conf中配置一句 spark.yarn.jar=hdfs:///lib/spark-assembly-1.6.3-hadoop2.6.0

spark下使用submit提交任務後報jar包已存在錯誤

使用spark submit進行任務提交,離線跑資料,提交後的一段時間內可以application可以正常執行。過了一段時間後,就丟擲以下錯誤: org.apache.spark.SparkExcep

java web定時任務

Cron表示式由6或7個由空格分隔的時間欄位組成,如表1所示:  表1 Cron表示式時間欄位 位置 時間域名 允許值 允許的特殊字元 1 秒 0-59

Java Web 定時任務

使用的java web框架是spring+springmvc,當web服務啟動以後,會有一個定時的任務去完成某一些特定的功能。在定時任務中支援註解其他的service等。 1、首先,在applicationContext-mvc.xml(xml配置檔案的名稱可能不一樣)檔案

Jenkins新建節點,啟動方式沒有“通過Java Web啟動代理”選項怎麽辦?

選項 節點 tls agen ont 保存 col ble enable 在Jenkins中,打開“系統管理”→“管理節點”→“新建節點”頁面時,“啟動方式&rdqu

spark-submit 提交任務報錯 java.lang.ClassNotFoundException: Demo02

案例:把sparksql的程式提交到spark的單機模式下執行 package demo01 import org.apache.spark.SparkContext import org.apache.spark.sql.SQLContext import org.apache.spa

spark-submit 提交任務報錯 java.lang.ClassNotFoundException: Demo02

案例:把sparksql的程式提交到spark的單機模式下執行 package demo01 import org.apache.spark.SparkContext import org.apache.spark.sql.SQLContext import org.ap

spark系列-應用篇之通過yarn api提交Spark任務

前言 在工作中,大部使用的都是hadoop和spark的shell命令,或者通過java或者scala編寫程式碼。最近工作涉及到通過yarn api處理spark任務,感覺yarn的api還是挺全面的,但是呼叫時需要傳入很多引數,而且會出現一些詭異的問題。雖然

spark submit提交任務報錯Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/spark/stream

1.問題描述 提交spark任務: bin/spark-submit --master local[2] \ --class _0924MoocProject.ImoocStatStreamingApp_product \ /opt/datas/project/scala

Java Web程序中使用監聽器可以通過以下兩種方法

output pla extend 標識 ade 介紹 gets str override 之前學習了很多涉及servlet的內容,本小結我們說一下監聽器,說起監聽器,編過桌面程序和手機App的都不陌生,常見的套路都是拖一個控件,然後給它綁定一個監聽器,即可以對該對象的事件

RDD的緩存,依賴,spark提交任務流程

持久化 存儲 技術分享 alt 重要 depend 任務 cache 但是 1.RDD的緩存 Spark速度非常快的原因之一,就是在不同操作中可以在內存中持久化或緩存個數據集。當持久化某個RDD後,每一個節點都將把計算的分片結果保存在內存中,並在對此RDD或衍生出的RDD進

Spark】篇---Spark中yarn模式兩種提交任務方式

方式 div -s and clas client 命令 yarn 模式 一、前述 Spark可以和Yarn整合,將Application提交到Yarn上運行,和StandAlone提交模式一樣,Yarn也有兩種提交任務的方式。 二、具體 1、yarn

Spark學習之第一個程序打包、提交任務到集群

4.4.2 2.6.0 reat apach import chmod 程序 rsa cas 1、免秘鑰登錄配置: ssh-keygen cd .ssh touch authorized_keys cat id_rsa.pub > authorized_keys ch