1. 程式人生 > >第87課:Flume推送資料到SparkStreaming案例實戰和內幕原始碼解密--flume安裝篇

第87課:Flume推送資料到SparkStreaming案例實戰和內幕原始碼解密--flume安裝篇

1、  下載flume 老師提供的包

2、  安裝 vi/etc/profile

exportFLUME_HOME=/usr/local/apache-flume-1.6.0-bin

exportPATH=.:$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$SCALA_HOME/bin:$SPARK_HOME/bin:$HIVE_HOME/bin:$FLUME_HOME/bin

3\配置檔案

[[email protected] conf]#pwd

/usr/local/apache-flume-1.6.0-bin/conf

[[email protected] conf]#

[[email protected] conf]#catflume-conf.properties

#agent1

agent1.sources=source1

agent1.sinks=sink1

agent1.channels=channel1

#urce1

agent1.sources.source1.type=spooldir

agent1.sources.source1.spoolDir=/usr/local/flume/tmp/TestDir

agent1.sources.source1.channels=channel1

agent1.sources.source1.fileHeader = false

agent1.sources.source1.interceptors = i1

agent1.sources.source1.interceptors.i1.type= timestamp

#sink1

agent1.sinks.sink1.type=hdfs

#agent1.sinks.sink1.hdfs.path=hdfs://master:9000/library/flume

agent1.sinks.sink1.hdfs.path=/usr/local/flume/tmp/SinkDir

agent1.sinks.sink1.hdfs.fileType=DataStream

agent1.sinks.sink1.hdfs.writeFormat=TEXT

agent1.sinks.sink1.hdfs.rollInterval=1

agent1.sinks.sink1.channel=channel1

agent1.sinks.sink1.hdfs.filePrefix=%Y-%m-%d

#channel1

agent1.channels.channel1.type=file

agent1.channels.channel1.checkpointDir=/usr/local/flume/tmp/checkpointDir

agent1.channels.channel1.dataDirs=/usr/local/flume/tmp/dataDirs

[[email protected] conf]#

flume-ng flume-ng.cmd  flume-ng.ps1

[[email protected] bin]#./flume-ng agent -c . -f/usr/local/apache-flume-1.6.0-bin/conf/flume-conf.properties  -n agent1 -Dflume.root.logger=INFO,console

bash: ./flume-ng: Permission denied

[[email protected] bin]#

[[email protected] bin]# ls -l

total 36

-rw-r--r--. 1 hadoop hadoop 12845 May  8  2015flume-ng

-rw-r--r--. 1 hadoop hadoop   936 May 8  2015 flume-ng.cmd

-rw-r--r--. 1 hadoop hadoop 14041 May  8  2015flume-ng.ps1

[[email protected] bin]# chmod u+x flume-ng

[[email protected] bin]# ls -;

ls: cannot access -: No such file ordirectory

[[email protected] bin]# ls -l

total 36

-rwxr--r--. 1 hadoop hadoop 12845 May  8  2015flume-ng

-rw-r--r--. 1 hadoop hadoop   936 May 8  2015 flume-ng.cmd

-rw-r--r--. 1 hadoop hadoop 14041 May  8  2015flume-ng.ps1

[[email protected] bin]# chmod u+X flume-ng.cmd

[[email protected] bin]# chmod u+X flume-ng.ps1

[[email protected] bin]# ls -l

total 36

-rwxr--r--. 1 hadoop hadoop 12845 May  8  2015flume-ng

-rw-r--r--. 1 hadoop hadoop   936 May 8  2015 flume-ng.cmd

-rw-r--r--. 1 hadoop hadoop 14041 May  8  2015flume-ng.ps1

[[email protected] bin]#

執行了

[[email protected] bin]# ./flume-ng agent -c . -f/usr/local/apache-flume-1.6.0-bin/conf/flume-conf.properties  -n agent1 -Dflume.root.logger=INFO,console

 新建檔案

[[email protected] hadoop]#cd /usr/local/flume/tmp/TestDir
[[email protected] TestDir]#ls
[[email protected] TestDir]#echo "hello IMF my flume data test 20160422 40w"> IMF_flume.log
[[email protected] TestDir]#ls
IMF_flume.log.COMPLETED

flume採集

16/04/22 10:29:30 INFO hdfs.BucketWriter: Renaming hdfs://master:9000/library/flume/2016-04-22.1461335365188.tmp to hdfs://master:9000/library/flume/2016-04-22.1461335365188
16/04/22 10:29:30 INFO hdfs.HDFSEventSink: Writer callback called.
16/04/22 10:29:53 INFO file.EventQueueBackingStoreFile: Start checkpoint for /usr/local/flume/tmp/checkpointDir/checkpoint, elements to sync = 1
16/04/22 10:29:53 INFO file.EventQueueBackingStoreFile: Updating checkpoint metadata: logWriteOrderID: 1461335244646, queueSize: 0, queueHead: 0
16/04/22 10:29:53 INFO file.Log: Updated checkpoint for file: /usr/local/flume/tmp/dataDirs/log-1 position: 226 logWriteOrderID: 14

16/04/22 10:27:25 INFO instrumentation.MonitoredCounterGroup: Component type: SOURCE, name: source1 started
16/04/22 10:29:21 INFO avro.ReliableSpoolingFileEventReader: Last read took us just up to a file boundary. Rolling to the next file, if there is one.
16/04/22 10:29:21 INFO avro.ReliableSpoolingFileEventReader: Preparing to move file /usr/local/flume/tmp/TestDir/IMF_flume.log to /usr/local/flume/tmp/TestDir/IMF_flume.log.COMPLETED
16/04/22 10:29:23 INFO file.EventQueueBackingStoreFile: Start checkpoint for /usr/local/flume/tmp/checkpointDir/checkpoint, elements to sync = 1
16/04/22 10:29:23 INFO file.EventQueueBackingStoreFile: Updating checkpoint metadata: logWriteOrderID: 1461335244643, queueSize: 1, queueHead: 999999
16/04/22 10:29:23 INFO file.Log: Updated checkpoint for file: /usr/local/flume/tmp/dataDirs/log-1 position: 149 logWriteOrderID: 1461335244643
16/04/22 10:29:25 INFO hdfs.HDFSDataStream: Serializer = TEXT, UseRawLocalFileSystem = false
16/04/22 10:29:25 INFO hdfs.BucketWriter: Creating hdfs://master:9000/library/flume/2016-04-22.1461335365188.tmp
16/04/22 10:29:25 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
16/04/22 10:29:30 INFO hdfs.BucketWriter: Closing hdfs://master:9000/library/flume/2016-04-22.1461335365188.tmp
16/04/22 10:29:30 INFO hdfs.BucketWriter: Renaming hdfs://master:9000/library/flume/2016-04-22.1461335365188.tmp to hdfs://master:9000/library/flume/2016-04-22.1461335365188
16/04/22 10:29:30 INFO hdfs.HDFSEventSink: Writer callback called.
16/04/22 10:29:53 INFO file.EventQueueBackingStoreFile: Start checkpoint for /usr/local/flume/tmp/checkpointDir/checkpoint, elements to sync = 1
16/04/22 10:29:53 INFO file.EventQueueBackingStoreFile: Updating checkpoint metadata: logWriteOrderID: 1461335244646, queueSize: 0, queueHead: 0
16/04/22 10:29:53 INFO file.Log: Updated checkpoint for file: /usr/local/flume/tmp/dataDirs/log-1 position: 226 logWriteOrderID: 1461335244646

hdfs檢視結果

[[email protected] TestDir]#hadoop dfs -cat/library/flume/2016-04-22.1461335365188

DEPRECATED: Use of this script to executehdfs command is deprecated.

Instead use the hdfs command for it.

SLF4J: Failed to load class"org.slf4j.impl.StaticLoggerBinder".

SLF4J: Defaulting to no-operation (NOP)logger implementation

SLF4J: Seehttp://www.slf4j.org/codes.html#StaticLoggerBinder for further details.

16/04/22 10:30:50 WARN util.NativeCodeLoader:Unable to load native-hadoop library for your platform... using builtin-javaclasses where applicable

hello IMF my flume data test 20160422 40w

[[email protected] TestDir]#

=======================================================================

huawei test

flume
[email protected]:/usr/local/apache-flume-1.6.0-bin/conf# hadoop dfs -mkdir hdfs://master:9000/library/flume
DEPRECATED: Use of this script to execute hdfs command is deprecated.
Instead use the hdfs command for it.








export FLUME_HOME=/usr/local/apache-flume-1.6.0-bin
export PATH=.:$PATH:$JAVA_HOME/bin:$SCALA_HOME/bin:$HADOOP_HOME/bin:$SPARK_HOME/bin:$HIVE_HOME/bin:$FLUME_HOME/bin


[email protected]:/usr/local/apache-flume-1.6.0-bin# source  /etc/profile


[email protected]:/usr/local/apache-flume-1.6.0-bin/bin# chmod u+x flume-ng




[email protected]:/usr/local/apache-flume-1.6.0-bin# flume-ng version
Flume 1.6.0
Source code repository: https://git-wip-us.apache.org/repos/asf/flume.git
Revision: 2561a23240a71ba20bf288c7c2cda88f443c2080
Compiled by hshreedharan on Mon May 11 11:15:44 PDT 2015
From source with checksum b29e416802ce9ece3269d34233baf43f
[email protected]:/usr/local/apache-flume-1.6.0-bin# 






./flume-ng agent -c . -f/usr/local/apache-flume-1.6.0-bin/conf/flume-conf.properties  -n agent1 -Dflume.root.logger=INFO,console






vi IMFFlume.sh
./flume-ng agent -c . -f/usr/local/apache-flume-1.6.0-bin/conf/flume-conf.properties  -n agent1 -Dflume.root.logger=INFO,console










   /usr/local/flume/tmp/TestDir




 






[email protected]:/usr/local/setup_scripts# cat IMFFlume.sh
/usr/local/apache-flume-1.6.0-bin/bin/flume-ng agent -c . -f/usr/local/apache-flume-1.6.0-bin/conf/flume-conf.properties  -n agent1 -Dflume.root.logger=INFO,console


[email protected]:/usr/local/setup_scripts# IMFFlume.sh




cp /usr/local/apache-flume-1.6.0-bin/README /usr/local/flume/tmp/TestDir

 [email protected]:/usr/local/apache-flume-1.6.0-bin/conf# cat flume-conf.properties
agent1琛ㄧず浠g悊鍚嶇О
agent1.sources=source1
agent1.sinks=sink1
agent1.channels=channel1




#閰嶇疆source1
agent1.sources.source1.type=spooldir
agent1.sources.source1.spoolDir=/usr/local/flume/tmp/TestDir
agent1.sources.source1.channels=channel1
agent1.sources.source1.fileHeader = false
agent1.sources.source1.interceptors = i1
agent1.sources.source1.interceptors.i1.type = timestamp


#閰嶇疆sink1
agent1.sinks.sink1.type=hdfs
agent1.sinks.sink1.hdfs.path=hdfs://master:9000/library/flume
agent1.sinks.sink1.hdfs.fileType=DataStream
agent1.sinks.sink1.hdfs.writeFormat=TEXT
agent1.sinks.sink1.hdfs.rollInterval=1
agent1.sinks.sink1.channel=channel1
agent1.sinks.sink1.hdfs.filePrefix=%Y-%m-%d




#閰嶇疆channel1
agent1.channels.channel1.type=file
agent1.channels.channel1.checkpointDir=/usr/local/flume/tmp/checkpointDir
agent1.channels.channel1.dataDirs=/usr/local/flume/tmp/dataDirs
[email protected]:/usr/local/apache-flume-1.6.0-bin/conf# hadoop dfs -mkidr hdfs://master:9000/library/flume
DEPRECATED: Use of this script to execute hdfs command is deprecated.
Instead use the hdfs command for it.


-mkidr: Unknown command
[email protected]:/usr/local/apache-flume-1.6.0-bin/conf# hadoop dfs -mkdir hdfs://master:9000/library/flume
DEPRECATED: Use of this script to execute hdfs command is deprecated.
Instead use the hdfs command for it.


[email protected]:/usr/local/apache-flume-1.6.0-bin/conf# mkidr /usr/local/flume/tmp/TestDir






相關推薦

87Flume資料到SparkStreaming案例實戰內幕原始碼解密--flume安裝

1、  下載flume 老師提供的包 2、  安裝 vi/etc/profile exportFLUME_HOME=/usr/local/apache-flume-1.6.0-bin exportPATH=.:$PATH:$JAVA_HOME/bin:$HADOOP

資料IMF傳奇行動絕密課程87Flume資料到Spark Streaming案例實戰內幕原始碼解密

Flume推送資料到Spark Streaming案例實戰和內幕原始碼解密 1、Flume on HDFS案例回顧 2、Flume推送資料到Spark Streaming實戰 3、原理繪圖剖析 一、配置.bashrc vi ~/.bashrc

91SparkStreaming基於Kafka Direct案例實戰內幕原始碼解密 java.lang.ClassNotFoundException 踩坑解決問題詳細內幕版本

第91課:SparkStreaming基於Kafka Direct案例實戰和內幕原始碼解密    /* * *王家林老師授課http://weibo.com/ilovepains */  每天晚上20:00YY頻道現場授課頻道68917580 1、作業內容:SparkS

Spark Streaming從Flume Poll資料案例實戰內幕原始碼解密

本博文內容主要包括以下幾點內容: 1、Spark Streaming on Polling from Flume實戰 2、Spark Streaming on Polling from Flume原始碼 一、推模式(Flume push SparkStre

80Spark SQL網站搜尋綜合案例實戰

內容:     1.案例分析     2.案例實戰 一、案例分析     專案:以京東找出搜尋平臺排名的產品,The hottest     元資料:date,u

C#程式設計基礎C#中三元運算子的初級使用巢狀

知識點:三元運算子的使用。 1、三元運算子 三元運算子的初級使用: 符號: ?: 舉例:int c=bool ? a : b 當bool=true,c=表示式a,當bool=false,c=表示式b。 三元運算子?:是 if~else 語句的簡寫形式 書寫格式

谷歌全球醫療廣告調查AI,移動端投放尺度加大

文|曾響鈴 來源|科技向令說(xiangling0815) 谷歌,這家全球最大搜索巨頭,越來越表現出它真實的樣子。 尤其是商業變現上,廣告業務一直都是谷歌重要的“現金流”。而2015年又是一個新的時間點,彼時,谷歌移動端的搜尋量超過了PC端,谷歌廣告業務的主陣地

C語言56實參與形參隨堂實戰

·第56課:實參與形參隨堂實戰 ·例子:計算圖形的面積 #include<stdio.h> #include<stdlib.h> #include<math.h> /* 圓:s = PI * r * r

機器學習筆記 1機器學習中的資料

資料在機器學習中起著重要的作用。 在談論資料時,理解和使用正確的術語非常重要。 你如何看待資料?想想電子表格吧,有列、行和單元格。 從統計視角而言,機器學習的任務是在假設函式( f )的上下文中構建資料。這些假設函式由機器學習演算法通過學習建立。給定一些輸入變數( Input ),該函式回答

每日新聞華為釋出5大AI戰略;支付寶建議蘋果使用者調低免密支付額度;胡潤百富榜馬雲居首馬化騰三;微軟重新新版Win10...

關注中國軟體網 最新鮮的企業級乾貨聚集地 今日熱點 微軟修補資料誤刪漏洞 重新向測試者推送新版Win 10 微軟重新推送Windows 10 October 2018 Update。之前微軟推送的更新存在資料誤刪問題,導致系統被迫下線。微軟解釋說,公司只收到為數不多的幾

人工智慧資料科學中的Python

我用了兩天左右的時間完成了這一門課《Introduction to Python for Data Science》的學習,之前對Python有一些基礎,所以在語言層面還是比較順利的,這門課程的最大收穫是讓我看到了在資料科學中Python的真正威力(也理解了為什麼Python這麼流行),同時本次課程的互動式練

.NetCore實踐篇使用zipkin4net資料到分散式監控zipkin(2)

前言《牧神記》有一句話說的好,破心中神。當不再對分散式,微服務,CLR畏懼迷茫的時候,你就破了心中神。zipkin複習zipkin作用全鏈路追蹤工具(根據依賴關係)檢視每個介面、每個service的執行速度(定位問題發生點或者尋找效能瓶頸)zipkin工作原理創造一些追蹤識別符號(tracingId,span

C#程式設計基礎C#中的常用資料型別轉換隱式轉換、顯式轉換、Convert類轉換等

知識點:型別轉換、數值型別間的轉換、隱式型別轉換、顯式型別轉換、數值型別和string型別的轉換、Convert類轉換。 1、資料型別型別轉換 理解:從根本上說是型別鑄造,或者說是把資料從一種型別轉換為另一種型別。C#有多種資料型別,在使用各種型別的資料時,有時候需要將一種型別的資料轉換

Spark商業案例與效能調優實戰1003商業案例之通過RDD分析大資料電影點評系各種型別的最喜愛電影TopN及效能優化技巧

Spark商業案例與效能調優實戰100課》第3課:商業案例之通過RDD分析大資料電影點評系各種型別的最喜愛電影TopN及效能優化技 原始碼 package com.dt.spark.core

資料Spark “蘑菇雲”行動補充內容70 Spark SQL程式碼實戰效能調優 4個spark sql調優技巧有用!!!!

大資料Spark “蘑菇雲”行動補充內容第70課: Spark SQL程式碼實戰和效能調優 dataframe: Row是沒有型別的,因為Row中的所有成員都被看著Object型別!!!untype

資料IMF傳奇行動絕密課程42Checkpoint內幕解密

Broadcast內幕解密 1、Broadcast徹底解析 2、Broadcast原始碼徹底詳解 3、Broadcast最佳實踐 一、Broadcast徹底解析 1、Broadcast就是將資料從一個節點發送到其它的節點上。例如Driver上有一張表,

資料IMF傳奇行動絕密課程54Spark效能優化十季之Spark統一記憶體管理

Spark效能優化第十季之Spark統一記憶體管理 1、傳統的Spark記憶體管理的問題 2、Spark統一記憶體管理 3、展望 Spark記憶體分為三部分:Execution、Sotrage、Other; Shuffle,當記憶體不夠的時候下,磁碟I

資料IMF傳奇行動絕密課程63Spark SQL下Parquet內幕深度解密

Spark SQL下Parquet內幕深度解密 1、Spark SQL下的Parquet意義再思考 2、Spark SQL下的Parquet內幕揭祕 一、Spark SQL下的Parquet意義再思考 1、如果說HDFS是大資料時代分散式檔案系統儲存的事

資料IMF傳奇行動絕密課程64Spark SQL下Parquet的資料切分壓縮內幕詳解

Spark SQL下Parquet的資料切分和壓縮內幕詳解 1、Spark SQL下的Parquet資料切分 2、Spark SQL下的Parquet資料壓縮 parquetBlocksize總體上講是壓縮後的大小 private static fina

【Linux探索之旅】第一部分測試並安裝Ubuntu

u盤 nco 過程 sans ubunt windows u盤啟動盤 系統 .com 內容簡單介紹 1、第一部分第三課:測試並安裝Ubuntu 2、第一部分第四課預告:磁盤分區 測試並安裝Ubuntu 大家好,經過前兩個比較偏理論(是否