1. 程式人生 > >ELK 大規模日誌實時處理系統應用簡介

ELK 大規模日誌實時處理系統應用簡介

ELK 是軟體集合 Elasticsearch、Logstash、Kibana 的簡稱,由這三個軟體及其相關的元件可以打造大規模日誌實時處理系統。

其中,Elasticsearch 是一個基於 Lucene 的、支援全文索引的分散式儲存和索引引擎,主要負責將日誌索引並存儲起來,方便業務方檢索查詢。

Logstash 是一個日誌收集、過濾、轉發的中介軟體,主要負責將各條業務線的各類日誌統一收集、過濾後,轉發給 Elasticsearch 進行下一步處理。

Kibana 是一個視覺化工具,主要負責查詢 Elasticsearch 的資料並以視覺化的方式展現給業務方,比如各類餅圖、直方圖、區域圖等。

所謂“大規模”指的是 ELK 組成的系統以一種水平擴充套件的方式每天支援收集、過濾、索引和儲存 TB 規模以上的各類日誌(注:1TB = 1024GB )。

通常,各類文字形式的日誌都在處理範圍,包括但不限於 Web 訪問日誌,如 Nginx/Apache Access Log;應用執行時日誌,如 Swift/PHP/Python/Ruby/Java/C# 等構建的應用程式在執行業務過程中記錄下來的日誌。 

How it work ?


圖 1. ELK 系統應用架構

上圖是 ELK 實際應用中典型的一種架構,其中 Filebeat 部署在具體的業務機器上,通過定時監控的方式獲取增量的日誌,並轉發 push 到 Redis 的一個 list 物件中暫存。

Redis 以高讀寫效能以及擁有支援 push/pop 操作的 list 資料結構的特徵,作為一個緩衝佇列的角色,接收所有從 Filebeat 收集轉發過來的日誌。

然後,Logstash 從 Redis 中獲取日誌,並通過 Input-Filter-Output 三個階段的處理,更改或過濾日誌,最終輸出我們感興趣的資料。

最後,Elasticsearch 儲存並索引從 Logstash 轉發過來的資料,並通過 Kibana 查詢和視覺化展示,達到實時分析日誌的目的。

Getting started

我們一步步安裝部署 ELK 系統的各個元件,然後以網站訪問日誌為例進行資料實時分析。(假定已經有部署好的 Nginx 伺服器和 Redis 例項)

首先,到 ELK 官網下載需要用到的 Filebeat/Logstash/Elasticsearch/Kibana 軟體安裝包。(推薦下載編譯好的二進位制可執行檔案,直接解壓執行就可以部署)

1、下載並配置 Filebeat,開啟日誌增量監控

解壓後的 Filebeat 包含以下三個檔案:


解壓後的 Filebeat

修改其中 filebeat.yml 的內容為:


filebeat.yml 配置檔案示例

上述配置表示,Filebeat 每 10s 監控一次

/path/to/nginx/access/*.log

目錄下所有以 .log 結尾的檔案,並且將增量日誌轉發到 Redis 伺服器。

然後,後臺啟動 Filebeat 程序:

nohup ./filebeat -c ./filebeat.yml & 

這時候,在瀏覽器上訪問 Nginx 伺服器並生成訪問日誌後,Filebeat 會及時的將日誌轉發到 Redis 伺服器。轉發的時候,Filebeat 會傳輸 JOSN 物件,而且原生的 Nginx 日誌文字會作為 message 欄位。


傳輸的 JOSN 物件

2、下載並配置 Logstash ,開啟日誌過濾

解壓後的 Logstash 包含以下目錄和檔案:


Logstash 解壓目錄和檔案

建立並編輯 filebeat-logstash-elastic.conf 檔案,內容為:


Logstash 配置檔案

配置檔案主要分為三大部分: Input / Filter / Output,對應收集、過濾、轉發三個階段。顯然,Input 階段只需要指定 Redis 伺服器相關資訊即可,Output 階段只需要指定 Elasticsearch 伺服器相關的資訊即可,比較複雜的是 Filter 過濾階段。

可以看到,上述配置中,grok 外掛使用正則表示式將 Nginx 日誌的各個欄位匹配出來,包括訪問使用者 ip 地址、請求時間和地址、伺服器響應時間和響應位元組以及使用者標示 User-Agent 等。

然後,mutate、ruby、useragent、date、kv 等外掛配合使用,過濾並獲取到感興趣的欄位,最後輸出如下示例的 JOSN 物件:


Logstash 轉換後輸出的 JSON 物件

這就是最終儲存在 Elasticsearch 中的文件內容。

接下來,就可以啟動 Logstash 程序了:

nohup ./bin/logstash agent -f ./filebeat-logstash-elastic.conf &

3、配置並啟動 Elasticsearch 服務

下載並解壓後,可以看到 ES 的目錄和檔案:


ES 目錄和檔案

修改 conf/elasticsearch.yml 內容如下:


ES 配置檔案

指定文件和日誌的儲存路徑以及監聽的地址和埠即可。注意,應當保證有足夠的磁碟空間來儲存文件,否則 ES 將拒絕寫入新資料。

環境變數 ES_HEAP_SIZE 被讀取為 Elasticsearch 的最大記憶體空間,一般設定為你機器記憶體的一半即可: 

export ES_HEAP_SIZE=10g

然後,啟動 ES 服務即可:

nohup ./bin/elasticsearch &

4、配置並啟動 Kibana 服務

下載解壓後的 Kibana 目錄和檔案:


Kibana 目錄和檔案

修改 conf/kibana.yml ,內容為:

 elasticsearch.url: "http://localhost:9200"

指定 ES 服務的地址和埠即可,然後啟動 Kibana 程序:

nohup ./bin/kibana &

tips:最好手動退出一下終端

exit

否則,關閉終端後,Kibana 程序可能也停止運行了。

然後,就可以在瀏覽器訪問 Kibana 了 http://10.142.86.182:5601/ (換成相應的 IP 地址訪問)


Kibana 介面

注意:初次訪問 Kibana 的時候,需要配置一個預設的 ES 索引,一般填寫 logstash-* 即可。

接下來,就可以使用 Kibana 的視覺化功能分析日誌了:


Kibana Visualize 功能
Kibana 視覺化資料分析

總結

綜上,我們配置並部署了 ELK 的整套元件,實現了日誌收集、過濾、索引和視覺化的全部流程,基於這套系統我們就可以實時的瞭解業務執行狀態。

tips:

ELK 各個元件執行過程中會產生大量的日誌,所以需要注意日誌處理,要麼 > /dev/null 全部忽略,要麼儲存在大磁碟空間,否則可能寫滿磁碟導致程序被 killed



文/Ceelog(簡書作者)
原文連結:http://www.jianshu.com/p/b2b675942e63
著作權歸作者所有,轉載請聯絡作者獲得授權,並標註“簡書作者”。

相關推薦

ELK 大規模日誌實時處理系統應用簡介

ELK 是軟體集合 Elasticsearch、Logstash、Kibana 的簡稱,由這三個軟體及其相關的元件可以打造大規模日誌實時處理系統。 其中,Elasticsearch 是一個基於 Lucene 的、支援全文索引的分散式儲存和索引引擎,主要負責將日誌索引並存儲起

處理系統、分時處理系統實時處理系統簡介

一、批處理階段(作業系統開始出現) 為了解決人機矛盾及CPU和I/O裝置之間速度不匹配的矛盾,出現了批處理系統。它按發展歷程又分為單道批處理系統、多道批處理系統(多道程式設計技術出現以後)。 1) 單

ubuntu16.04安裝Storm數據流實時處理系統 集群

大數據 storm[email protected]:~# wget http://mirror.bit.edu.cn/apache/storm/apache-storm-1.1.1/apache-storm-1.1.1.tar.gz[email protected]:/usr/local

Flume+Kafka+Storm+Redis構建大數據實時處理系統實時統計網站PV、UV+展示

大數據 實時計算 Storm [TOC] 1 大數據處理的常用方法 前面在我的另一篇文章中《大數據采集、清洗、處理:使用MapReduce進行離線數據分析完整案例》中已經有提及到,這裏依然給出下面的圖示: 前面給出的那篇文章是基於MapReduce的離線數據分析案例,其通過對網站產生的用戶訪問

Flume+Kafka+Storm+Redis構建大資料實時處理系統

資料處理方法分為離線處理和線上處理,今天寫到的就是基於Storm的線上處理。在下面給出的完整案例中,我們將會完成下面的幾項工作: 如何一步步構建我們的實時處理系統(Flume+Kafka+Storm+Redis) 實時處理網站的使用者訪問日誌,並統計出該網站的PV、UV 將實時

分散式實時處理系統Hurricane的架構

Hurricane總體架構圖 各部件介紹 Spout是訊息源,拓撲結構中所有的資料都來自訊息源,而訊息源也是拓撲結構中訊息流的源頭。 Bolt是訊息處理單元,負責接收來自訊息源或資料處理單元的資料 流,並對資料進行邏輯處理,然後轉發到下一個訊息處理單元,基本封裝

一個日誌實時處理方案

主要功能 *日誌實時寫入ES,實現實時查詢 *日誌實時寫入HDFS,用於日誌分析 *日誌異常實時預警 使用的主要元件 rsyslog、flume、kafka、hive、zookeeper、st

【讀書精華分享】《分散式實時處理系統 原理、架構與實現》盧譽聲著/2016年

【分享說明】: 我會花很多時間或淺或深的研讀一本書,然後總結一些提煉出來的精華,用簡短的語言,讓其他人能夠用很少的時間大致知道這本書能帶給自己的價值,如果適用自己,鼓勵買一本正本實體書細讀

安裝elk日誌采集系統

除了 修改 火墻 elk 配置 cal 命令 打開 start #elasticsearch安裝 wget https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-7.0.0-linux-x86

ELK nginx系統日誌收集+微服務日誌集中處理實戰

ELK 系統 ELK Elastic stack is a popular open-source solution for analyzing weblogs,ELK stack will reside on a server separate from y

實時計算、流式處理系統簡介與簡單分析 .

一、實時計算一些基本概念 二、早期產品 1. IBM的StreamBase: StreamBase是IBM開發的一款商業流式計算系統,在金融行業和政府部門使用 2. Borealis:Brandeis University、Brown University和

略論並行處理系統日誌設計

inf 詳細 技術 出錯 size 軟件 多進程 eve middle 作者:朱金燦來源:http://blog.csdn.net/clever101 一般來說桌面軟件以單機單進程的方式執行。在調試程序時能夠方便地進行單步調試。而並行處理系統往往以多機多進

linux計劃任務,系統日誌,故障處理

badblock 解決 用戶驗證 排查 名稱 輸出 分鐘 message 計劃任務管理 計劃任務管理 At 一次性任務設置。 服務腳本:/etc/init.d/atd 使用方法; #at 13:00

2018年ElasticSearch6.2.2教程ELK搭建日誌采集分析系統(目錄)

1.2 安裝包 接口 語句 參數配置 介紹 ofo 計劃 裝包 章節一 2018年 ELK課程計劃和效果演示 1、課程安排和效果演示 簡介:課程介紹和主要知識點說明,ES搜索接口演示,部署的ELK項目演示 章節二 elasticSearch 6.2版本基礎講

2018年ElasticSearch6.2.2教程ELK搭建日誌采集分析系統(教程詳情)

domain 服務器日誌 環境 解決 對比 修改 tst 阿裏雲服務 們的 章節一 2018年 ELK課程計劃和效果演示1、課程安排和效果演示簡介:課程介紹和主要知識點說明,ES搜索接口演示,部署的ELK項目演示es: localhost:9200kibana http:

Kafka+Zookeeper+Filebeat+ELK 搭建日誌收集系統

could not arch success div 名稱 fill pil ice oca ELK ELK目前主流的一種日誌系統,過多的就不多介紹了 Filebeat收集日誌,將收集的日誌輸出到kafka,避免網絡問題丟失信息 kafka接收到日誌消息後直接消費到Lo

五、Kafka 用戶日誌上報實時統計之 應用概述

tracking 可擴展 buffer 基礎軟件 業務場景 日誌 技術分享 inf kafka 一、kafka 回顧 1.簡介 Kafka 的業務 業務場景:   解除耦合   增加冗余   提高可擴展性   Buffering   異步通信 2.介

Spark Streaming實時處理應用

1 框架一覽   事件處理的架構圖如下所示。 2 優化總結   當我們第一次部署整個方案時,kafka和flume元件都執行得非常好,但是spark streaming應用需要花費4-8分鐘來處理單個batch。這個延遲的原因有兩點,一是我們使用DataFrame來強化資料,而強化資料需要從h

應用日誌獲取-web系統

1 場景 應用使開發寫的,但應用使部署再伺服器上,而開發沒有ssh登陸伺服器的許可權。 so,開發總是請運維查日誌,下載日誌。 so and so,運維要花很多時間幫開發去搞日誌。 這是件很沒意義的事,所以必須kill 2 解決思路 首先想到的就是大名鼎鼎的ELK,試行了一段時間,結果暴斃。暴斃原

Elk日誌採集分析系統 搭建elasticsearch環境 6.4 環境

https://www.elastic.co/cn/blog/elasticsearch-6-4-0-released 1 官網下載 elasticsearch 安裝包 https://artifacts.elastic.co/downloads/elasticsearch/elasti