1. 程式人生 > >flume安裝配置-採集日誌到hadoop儲存

flume安裝配置-採集日誌到hadoop儲存

一、整體架構

  

    flume其實就是一個日誌採集agent,在每臺應用伺服器安裝一個flume agent,然後事實採集日誌到HDFS叢集環境儲存,以便後續使用hive或者pig等大資料分析日誌,然後可轉存到mysql供運維查詢或分析使用者行為等。

叢集規劃:Hive只在一個節點(hadoop3)上安裝即可
	主機名		IP				安裝的軟體		執行的程序
	hadoop1	192.168.31.10	jdk、hadoop			        NameNode、DFSZKFailoverController、
	hadoop2	192.168.31.20	jdk、hadoop	、hive、mysql	        NameNode、DFSZKFailoverController、hive、mysql
	hadoop3	192.168.31.30	jdk、hadoop	、flume		        ResourceManager、fulme
	hadoop4	192.168.31.40	jdk、hadoop、zookeeper		DataNode、NodeManager、JournalNode、QuorumPeerMain
	hadoop5	192.168.31.50	jdk、hadoop、zookeeper		DataNode、NodeManager、JournalNode、QuorumPeerMain
	hadoop6	192.168.31.60	jdk、hadoop、zookeeper	        DataNode、NodeManager、JournalNode、QuorumPeerMain

三、flume下載安裝

 2. 安裝

 tar -zxvf apache-flume-1.5.0-bin.tar.gz -C /usr/cloud/flume
 3.配置環境變數
  vim /etc/profile
  
  export JAVA_HOME=/usr/cloud/java/jdk1.6.0_24
  export HADOOP_HOME=/usr/cloud/hadoop/hadoop-2.2.0
  export HBASE_HOME=/usr/cloud/hbase/hbase-0.96.2
  export FLUME_HOME=/usr/cloud/flume/apache-flume-1.5.0
  export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$HBASE_HOME/bin:$FLUME_HOME/bin
  
  source /etc/profile

4.要把hadoop叢集配置好的hdfs-site.xml和core-site.xml 放到hbase/conf下
        #執行hdfs的配置
	scp $HADOOP_HOME/etc/hadoop/core-site.xml  $FLUME_HOME/conf
	scp $HADOOP_HOME/etc/hadoop/hdfs-site.xml  $FLUME_HOME/conf
5. 修改flume-env.sh

sudo vim $FLUME_HOME/conf/flume-env.sh
	
#設定JAVA_HOME
JAVA_HOME=/usr/cloud/java/jdk1.6.0_24
 6. 拷貝flume依賴的hadoopjar包到$FLUME_HOME/lib:

     scp $HADOOP_HOME/share/hadoop/common/hadoop-common-2.2.0.jar                  $FLUME_HOME/lib/
     scp $HADOOP_HOME/share/hadoop/common/lib/hadoop-auth-2.2.0.jar                     $FLUME_HOME/lib/
     scp $HADOOP_HOME/share/hadoop/common/lib/commons-configuration-1.6.jar       $FLUME_HOME/lib/
三、配置flume source,channel,sink ,在conf下新建檔案flume.conf

vim /FLUME_HOME/conf/flume.conf
	 
#定義agent名, source、channel、sink的名稱
a4.sources = r1
a4.channels = c1
a4.sinks = k1

#具體定義source
a4.sources.r1.type = spooldir
a4.sources.r1.spoolDir = /usr/cloud/flume/log

#具體定義channel
a4.channels.c1.type = memory
a4.channels.c1.capacity = 10000
a4.channels.c1.transactionCapacity = 100

#定義攔截器,為訊息新增時間戳
a4.sources.r1.interceptors = i1
a4.sources.r1.interceptors.i1.type = org.apache.flume.interceptor.TimestampInterceptor$Builder


#具體定義sink
a4.sinks.k1.type = hdfs
a4.sinks.k1.hdfs.path = hdfs://ns1/flume/%Y%m%d
a4.sinks.k1.hdfs.filePrefix = events-
a4.sinks.k1.hdfs.fileType = DataStream
#不按照條數生成檔案
a4.sinks.k1.hdfs.rollCount = 0
#HDFS上的檔案達到128M時生成一個檔案
a4.sinks.k1.hdfs.rollSize = 134217728
#HDFS上的檔案達到60秒生成一個檔案
a4.sinks.k1.hdfs.rollInterval = 60

#組裝source、channel、sink
a4.sources.r1.channels = c1
a4.sinks.k1.channel = c1

三、啟動flume,保證hdfs已經啟動
        #編寫指令碼 start-flume.sh
	vim $FLUME_HOME/bin/start-flume.sh
	
	$FLUME_HOME/bin/flume-ng agent -n a4 -c conf -f $FLUME_HOME/conf/a4.conf -Dflume.root.logger=INFO,console
	 
	#啟動flume
	$FLUME_HOME/bin/start-flume.sh

檢查配置的檔案是否上傳到hdfs



附錄:

   在

/usr/cloud/flume/log在儲存檔案biz.log,內容:
   
ERROR [2016-10-27 14:44:02,482] com.alibaba.scm.common.monitor.log.ScmBizLogger:30 - |<>|traceId==>UUID:3ff0f75f-0ea8-466b-9c15-b96747b8d636<||>bizType==>3000<||>T==>107<||>SUCC==>true<||>bizName==>createInboundOrder_begain<||>IN==>{"appointmentDate":"Oct 27, 2016 2:43:52 PM","sellId":3693710345,"sellName":"天貓國際012","storeCode":"STORE_230095","customsInfoNo":"ASN00105244708","purchaseOrderNo":"PO160822222226","supplierId":300000000001402,"consignOrderNo":"CO160323143157012226","abroad":false,"demandDate":"Oct 27, 2016 2:43:52 PM","saleType":2,"shipType":0,"consignOrderItemDTOList":[{"scItemId":2100771461843,"itemId":2100770298741,"quantity":100,"gmtExpired":"Oct 10, 2016 12:00:00 AM","rejectDays":10,"managerType":3,"rowVersion":0}],"bizType":3000,"rowVersion":0}  <||>bizCode==>CO160323143157012226<||>CM==>InboundOrderClientImpl.createInboundOrder<||>OUT==>{"success":true,"isRetry":false}<||> 
ERROR [2016-10-27 14:44:03,716] com.alibaba.scm.common.monitor.log.ScmBizLogger:30 - |<>|traceId==>UUID:eb51567f-f83a-4dfb-8d38-9b6b58d84021<||>bizType==>3000<||>T==>1359<||>SUCC==>true<||>bizName==>createInboundOrder_end<||>IN==>{"appointmentDate":"Oct 27, 2016 2:43:52 PM","sellId":3693710345,"sellName":"天貓國際012","storeCode":"STORE_230095","customsInfoNo":"ASN00105244708","purchaseOrderNo":"PO160822222226","supplierId":300000000001402,"consignOrderNo":"CO160323143157012226","abroad":false,"demandDate":"Oct 27, 2016 2:43:52 PM","saleType":2,"shipType":0,"consignOrderItemDTOList":[{"scItemId":2100771461843,"itemId":2100770298741,"quantity":100,"gmtExpired":"Oct 10, 2016 12:00:00 AM","rejectDays":10,"managerType":3,"rowVersion":0}],"bizType":3000,"rowVersion":0}  <||>bizCode==>CO160323143157012226<||>CM==>InboundOrderClientImpl.createInboundOrder<||>OUT==>{"success":true,"isRetry":false,"model":{"purchaseOrderNo":"PO160822222226","inboundNo":"IO16102714440300373001","consignOrderNo":"CO160323143157012226","storeCode":"STORE_230095","supplierId":300000000001402,"sendQuantity":100,"preArrival":"Oct 27, 2016 2:43:52 PM","status":10,"demandDate":"Oct 27, 2016 2:43:52 PM","inboundItemDOList":[{"inboundNo":"IO16102714440300373001","inboundId":373001,"scItemId":2100771461843,"itemId":2100770298741,"sendQuantity":100,"status":1,"rejectDays":10,"managerType":3,"gmtExpired":"Oct 10, 2016 12:00:00 AM","storeCode":"STORE_230095","purchaseOrderNo":"PO160822222226","bizType":3000,"attribute":"MXSDUEDATE:20161010","attributeMap":{"MXSDUEDATE":"20161010"}}],"id":373001,"bizType":3000}}<||> 

相關推薦

flume安裝配置-採集日誌hadoop儲存

一、整體架構        flume其實就是一個日誌採集agent,在每臺應用伺服器安裝一個flume agent,然後事實採集日誌到HDFS叢集環境儲存,以便後續使用hive或者pig等大資料分析日誌,然後可轉存到mysql供運維查詢或分析使用者行為等。 叢集規劃

ELK 6安裝配置 nginx日誌收集 kabana漢化

restart proc times add-port app pack minimum node cnblogs #ELK 6安裝配置 nginx日誌收集 kabana漢化 #環境 centos 7.4 ,ELK 6 ,單節點 #服務端 Logstash 收集,過濾 E

Flume安裝配置簡單版

本文環境如下: 作業系統:CentOS 7.2.1511 64位 Flume版本:1.6.01. 系統需求Flume需要Java 1.6及以上(推薦1.7),對Agent監控目錄的讀寫許可權。2. 下載軟體包到Flume官網上http://flume.apache.org/download.html下載軟體包

flume學習02-flume安裝配置啟動

上一篇部落格簡單介紹了flume的一些基本概念和架構,更詳細的內容可以去官網使用者手冊學習,這篇部落格主要介紹如何安裝配置flume,以及作個簡單示例如何使用 下載flume tar -zxvf apache-flume-1.5.2-bin.tar.

Flume安裝配置實踐

Flume簡介 Flume是Cloudera提供的一個高可用的,高可靠的,分散式的海量日誌採集、聚合和傳輸的系統,Flume支援在日誌系統中定製各類資料傳送方,用於收集資料;同時,Flume提供對資料進行簡單處理,並寫到各種資料接受方(可定製)的能力。 系統功能 日誌收集 Flume最早是

Haproxy安裝配置日誌輸出問題

table block linux操作系統 獲得 寫入 pidfile 服務器集群 dmi 指定 簡介:軟件負載均衡一般通過兩種方式來實現:基於操作系統的軟負載實現和基於第三方應用的軟負載實現。LVS就是基於Linux操作系統實現的一種軟負載,HAProxy就是開源的並且基

Flume安裝-配置-除錯

apache-flume-1.6.0-bin.tar.gz 安裝包 1.Linux虛擬機器Centos 7.0,伺服器CPU:i5 雙核以上,記憶體:2G以上 2.JDK1.7.0以上、Hadoop -2.7 .1、 3.機器名 ip地址 安裝軟體 Master1  

hadoop安裝配置——快速搭建hadoop

副本 所有 配置文件 hadoop安裝 second windows 當前 data app 以下給初次使用hadoop的朋友,快速搭建並啟動hadoop,記住需要修改的東西分別是“三個site,四個env,一個slaver”,所有配置文件都在$HA

redis慢查詢日誌、php安裝redis擴充套件、redis儲存session、redis主從配置

一:redis慢查詢日誌 編輯配置檔案/etc/redis.conf針對慢查詢日誌,可以設定兩個引數,一個是執行時長,單位是微秒,另一個是慢查詢日誌的長度。當一個新的命令被寫入日誌時,最老的一條會從命令日誌佇列中被移除。 slowlog-log-slower-than 1000 //單位ms,表示慢於100

redis慢查詢日誌,php安裝redis擴充套件,redis儲存session,redis主從配置

redis慢查詢日誌 和mysql一樣redis也有慢查詢日誌,redis的慢查詢日誌預設是開啟的。針對慢查詢日誌,主要是設定兩個引數,一個是執行時長,單位是微秒,另一個是慢查詢日誌的長度。當一個新的命令被寫入日誌時,最老的一條會從命令日誌佇列中被移除。 編輯配置檔案,檔案中搜素slowlog,可以設

用Nginx採集日誌通過flume日誌檔案儲存到HDFS上

安裝Tomcat 到官網下載apache-tomcat-7.0.69 開啟eclipse->window->preferences->server->runtime environments 編寫專案 Nginx

Flume安裝部署,採集方案配置檔案編寫案例,啟動agent採集資料

1.2 Flume實戰案例 1.2.1 Flume的安裝部署 1、Flume的安裝非常簡單,只需要解壓即可,當然,前提是已有hadoop環境 上傳安裝包到資料來源所在節點上 然後解壓 tar -zxvf apache-flume-1.6.0-bin

ELK日誌分析系統 介紹 安裝配置

elkELK日誌分析系統一、ELK介紹 ELK顧名思義:是由Elasticsearch,Logstash 和 Kibana三部分組成的。 其中Elasticsearch 是一個實時的分布式搜索和分析引擎,它可以用於全文搜索,結構化搜索以及分析。它是一個建立在全文搜索引擎 Apache Lucene

cdh版本的hue安裝配置部署以及集成hadoop hbase hive mysql等權威指南

service sources ces 兩個 配置 語句 基金會 pan 創建 hue下載地址:https://github.com/cloudera/hue hue學習文檔地址:http://archive.cloudera.com/cdh5/cdh/5/hue-3.7

Hadoop單機版安裝配置

大數據 Hadoop [toc] Hadoop單機版安裝配置 前言 Hadoop單機版本的環境搭建比較簡單,這裏總結一下。 Centos基本配置 網絡配置 IPADDR=192.168.43.101 NETMASK=255.255.255.0 GATEWAY=192.168.43.2 DNS1=202

Hadoop完全分布式安裝配置完整過程

其他 ins $path serve 建立 工作 isp IT 完成後 一. 硬件、軟件準備 1. 硬件設備 為了方便學習Hadoop,我采用了雲服務器來配置Hadoop集群。集群使用三個節點,一個阿裏雲節點、一個騰訊雲節點、一個華為雲節點,其中阿裏雲和騰訊雲都是通過使用

(十二)linux下hadoop安裝配置

-i host 配置文件 localhost mapreduce stat reboot app table 1.準備Linux環境 1.1關閉防火墻 #查看防火墻狀態 service iptables status #關閉防火墻 service iptables

asp.Net Core免費開源分布式異常日誌收集框架Exceptionless安裝配置以及簡單使用圖文教程

true 類型 全部 界面 目錄 () 程序包 light set 最近在學習張善友老師的NanoFabric 框架的時了解到Exceptionless : https://exceptionless.com/ !因此學習了一下這個開源框架!下面對Exceptionless

hadoop環境安裝配置介紹與步驟

關系 防止 shadow 設置 操作 data 環境 con 目的 在上一篇的分享文章中我是給大家分享了運行部署hadoop的一些安裝準備工作,這篇接上一篇繼續為大家分享一些個人的學習經驗總結。我學習用的是大快發行版DKHadoop,所以所有的經驗分享都是以DKHadoop