1. 程式人生 > >flume spark streaming配置詳解

flume spark streaming配置詳解

      Apache Flume是一個用來有效地收集,聚集和移動大量日誌資料的分散式的,有效的服務。這裡我們解釋一下怎樣配置FlumeSpark Streaming來從Flume獲取資料,我們讓flume直接將收集到的資料傳送到spark streaming去處理

package com.pinganfu.flumespark
import org.apache.spark.SparkConf
import org.apache.spark.storage.StorageLevel
import org.apache.spark.streaming.flume.FlumeUtils
import org.apache.spark.streaming.{Milliseconds, StreamingContext}

object SparkFlumeEvent{
  def main(args: Array[String]) {
    val batchInterval = Milliseconds(5000)
    val sparkConf = new SparkConf().setAppName("flumetospark").setMaster("local[2]")
    val ssc = new StreamingContext(sparkConf, batchInterval)
    val stream = FlumeUtils.createStream(ssc,"localhost",33333, StorageLevel.MEMORY_AND_DISK)
    stream.count().map(cnt => "Received " + cnt + " flume events." ).print()
    ssc.start()
    ssc.awaitTermination()
  }
}

Flume配置

a1.channels = c1
a1.sinks = k1
a1.sources = r1
a1.sinks.k1.type = avro
a1.sinks.k1.channel = c1
a1.sinks.k1.hostname = localhost
a1.sinks.k1.port = 33333
 
a1.sources.r1.type = netcat
a1.sources.r1.bind = localhost
a1.sources.r1.port = 44444
a1.sources.r1.channels = c1
 
a1.channels.c1.type = memory
a1.channels.c1.capacity = 1000
a1.channels.c1.transactionCapacity = 100

啟動三個視窗

先啟動spark-shell(引入兩個依賴包)

bin/spark-shell  --jars lib/spark-streaming-flume_2.10-1.0.0.jar,lib/flume-ng-sdk-1.6.0.jar

然後將上面程式碼貼進去


再啟動flume

bin/flume-ng agent --conf conf --conf-file conf/flume.conf --name a1 -Dflume.root.logger=INFO,console

再啟動telnet localhost 44444

發資料

截圖如下:





相關推薦

flume spark streaming配置

      Apache Flume是一個用來有效地收集,聚集和移動大量日誌資料的分散式的,有效的服務。這裡我們解釋一下怎樣配置Flume和Spark Streaming來從Flume獲取資料,我們讓

Spark Streaming StreamingContext

一、StreamingContext的建立方式 (1)使用configuration建立 val conf = new SparkConf().setAppName(appName).setMaster

Hive on Spark安裝配置(都是坑啊)

簡介 本文主要記錄如何安裝配置Hive on Spark,在執行以下步驟之前,請先確保已經安裝Hadoop叢集,Hive,MySQL,JDK,Scala,具體安裝步驟不再贅述。 背景 Hive預設使用MapReduce作為執行引擎,即Hive on mr。實際上,H

Spark效能相關引數配置

隨著Spark的逐漸成熟完善, 越來越多的可配置引數被新增到Spark中來, 本文試圖通過闡述這其中部分引數的工作原理和配置思路, 和大家一起探討一下如何根據實際場合對Spark進行配置優化。 schedule排程相關 排程相關的引數設定,大多數內容都很直

spark log4j.properties配置與例項

################################################################################  #①配置根Logger,其語法為:  #  #log4j.rootLogger = [level],appen

Flume資料採集各種配置

Flume簡介 Flume是Cloudera提供的一個高可用的,高可靠的,分散式的海量日誌採集、聚合和傳輸的系統,Flume支援在日誌系統中定製各類資料傳送方,用於收集資料;同時,Flume提供對資料進行簡單處理,並寫到各種資料接受方(可定製)的能力。 系統功能

Flume環境部署和配置及案例大全

 一、什麼是Flume?   flume 作為 cloudera 開發的實時日誌收集系統,受到了業界的認可與廣泛應用。Flume 初始的發行版本目前被統稱為 Flume OG(original generation),屬於 cloudera。但隨著 FLume 功能的擴

flume 一級配置和多級配置

    個人不太喜歡過多的介紹理論,理論在任何一個部落格中都能查到,如果下個瞭解flume 的工作原理,請到別處尋找,如果子昂要找到方案的解決辦法,恭喜你找對了。同時本人不喜歡專門排版,太浪費時間,還不如利用時間,多研究一下乾貨。望諒解。    在實際應用中,主要多級flum

flume-ng資料複用案列配置

#型別 AVRO spooldir netcat HTTPa1.sources = sourceMqtta1.sinks = sinkMqtt1 sinkMqtt2a1.channels = channelMqtt1 channelMqtt2# Describe/config

Spark 效能相關引數配置-壓縮與序列化篇

作者:劉旭暉 Raymond 轉載請註明出處隨著Spark的逐漸成熟完善, 越來越多的可配置引數被新增到Spark中來, 本文試圖通過闡述這其中部分引數的工作原理和配置思路, 和大家一起探討一下如何根據

setting.xml 配置

校驗 找不到 順序 裁剪 全局 -- mls leg 觸發 文件存放位置 全局配置: ${M2_HOME}/conf/settings.xml 用戶配置: ${user.home}/.m2/settings.xml note:用戶配置優先於全局配置。${user.home}

【Spring】Spring MVC原理及配置

進行 return sub sca scrip uil 線程安全 松耦合 必須 1.Spring MVC概述: Spring MVC是Spring提供的一個強大而靈活的web框架。借助於註解,Spring MVC提供了幾乎是POJO的開發模式,使得控制器的開發和測試更加簡

kafka參數配置

kafka 參數 broker.idbroker的唯一標識符,如果不配置則自動生成,建議配置且一定要保證集群中必須唯一,默認-1log.dir日誌數據存放的目錄,默認/tmp/kafka-logslog.dirs日誌數據存放的目錄,如果沒有配置則使用log.dir,建議此項配置。zookeeper.c

Lnux系統網卡綁定配置

ole osd 接口 當前 onf prim multi pac lin 一、CentOS 配置網卡綁定(bonding) 1、bonding概述 (1)作用:就是將多塊網卡綁定同一IP地址對外提供服務,可以實現高可用或者負載均衡。當然,直接給兩塊網卡設置同一IP地址是不可

Nginx配置

set 文件結構 時也 解決方案 ces 反向代理服務器 use 力量 第三方模塊 最近在搞nginx和tomcat 以及apache的集群。下面是參考的一片很不錯的關於nginx配置的詳細講解: http://www.cnblogs.com/knowledgesea/p/

Apache配置

搜索 相對 第一個 form 執行權限 php 時有 多個 direct Apache的配置由httpd.conf文件配置,因此下面的配置指令都是在httpd.conf文件中修改。 主站點的配置(基本配置) (1) 基本配置: ServerRoot "/mnt/softwa

緩存varnish的管理及配置

啟動 一個 hint 單位 quad spec int rom try 一 工作原理 在當前主流的Web服務架構體系中,Cache擔任著越來越重要的作用。常見的基於瀏覽器的C/S架構,Web Cache更是節約服務器資源的關鍵。而最近幾年由FreeBSD創始人之一Kamp開

日誌配置

lin XML html表格 記錄 文件中 對齊方式 oca read val #①配置根Logger,其語法為: # #log4j.rootLogger = [level],appenderName,appenderName2,... #level是日誌記錄的優先級,分為

phpmyadmin配置

php phpmyadmin配置文件中的一個,路徑為libraries/config.default.php,可以修改若幹配置,其中,only_db可以配置在web端顯示的數據庫本文出自 “12968673” 博客,請務必保留此出處http://12978673.blog.51cto.com/1296867

DNS配置 bind實現正向解析和反向解析

cell 8.4 -s intern 資源記錄 ted borde linux系統 ans DNS是域名服務(Domain Name Service),負責把域名解析成IP地址(正向解析)或者把IP地址解析為域名(反向解析)。 DNS查詢過程: 假設我們要訪問www.a