1. 程式人生 > >windows下Elasticsearch+Logstash+Kibana日誌收集分析系統安裝教程

windows下Elasticsearch+Logstash+Kibana日誌收集分析系統安裝教程

    上星期搭建了基於kafka+elasticsearch+elastic-job的新聞日誌追蹤系統,在本地執行成功後,老大試了下,發現elastic-job執行不穩定,定時任務並沒有執行,而且採用kafka訊息佇列消費,不如在本地消費高效,於是再讓我採用Elasticsearch+Logstash+Kibana來搭建新的日誌收集系統。 
    早上看了一篇文章,寫的很好,採用上面的教程基本安裝成功,但是開啟kibana介面時發現只加載了頁面頭部,下面的內容始終載入不出來,用F12看了下,發現報錯了:Result window is too large, from + size must beult_window] index level parameter. 
    後面google了一下,發現是版本問題,升級到新版本後就解決了。 
把安裝教程連結和問題連結發出來,供其他人用: 

倫理片http://www.dotdy.com/

    具體如下(安裝教程是複製的,供學習用): 
一步步來 
1.下載軟體 
Elasticsearch: https://download./elasticsearch-2.0.0.zip 
Logstash: https://download.elas

2.分別解壓下載的軟體,elasticsearch,logstash,kibana 可以放在一個統一資料夾下 

3.下載JDK,安裝java環境,把安裝路徑新增JAVA_HOME 的環境變數 
4.配置logstash ,cd 到logstash資料夾的下bin目錄 
建立配置檔案 logstash.conf  ,內容如下,具體不講解(從tcp 5544 埠接收,送到es伺服器上,很簡單的一個配置) 
input { 
  tcp { 
    port => 5544 
  } 


output { 
  elasticsearch { 
    hosts => ["localhost:9200"] 


5.安裝Elasticsearch 為windows服務 
cd到Elasticsearch資料夾的bin目錄下 
cmd 執行 service install,會提示安裝成功 
cmd 執行 service manager 會彈出服務管理介面,可以設定自動啟動,並啟動之。 
瀏覽器訪問 127.0.0.1:9200 ,出現成功的json 
6 安裝logstash 為windows服務 
cd到logstash資料夾下bin目錄 
建立一個run.bat 
logstash.bat agent -f logstash.conf 

解壓拷貝nssm-2.24\win64目錄下nssm.exe到logstash bin目錄 
cmd 執行 nssm install logstash 
在彈出的介面設定 Path為run.bat,Details選項卡設定顯示名,Dependencies選項卡設定依賴服務 elasticsearch-service-x64 
最後點選install service 安裝成功 
7.安裝kibana為windows服務 
和之前一樣拷貝nssm檔案,安裝服務的Path為kibana.bat,依賴項可以設定logstash,elasticsearch-service-x64 
7.1 可選 安裝個反向代理軟體nginx,IIS的ARR模組把5601埠遮蔽下 
8.在控制面板,啟動之前安裝的三個服務,接下來我們可以測試下 
telnet 127.0.0.1 5544  隨便輸點東西,並回車 
用瀏覽器開啟http://localhost:5601/  系統會提示建立Index,可以按時間建立Index。在Discover選項卡上你會看到你剛剛在telnet中敲的毫無意義的ASCII字元 
很簡單不是,生產環境還是交給運維部署個linux 版本吧 
後面更復雜的配置和實踐交給大家自行摸索了,呵呵 
影音先鋒電影
http://www.iskdy
.com/

問題:Result window is too large, from + size must be less tt was [2147483647]. See the scroll api for a more efficient way to request large data sets. This limit can be set by chaax_result_window] index level parameter. 

相關推薦

windowsElasticsearch+Logstash+Kibana日誌收集分析系統安裝教程

    上星期搭建了基於kafka+elasticsearch+elastic-job的新聞日誌追蹤系統,在本地執行成功後,老大試了下,發現elastic-job執行不穩定,定時任務並沒有執行,而且採用kafka訊息佇列消費,不如在本地消費高效,於是再讓我採用Elasticsearch+Logstash+K

FileBeat+Elasticsearch+Logstash+Kibana日誌收集分析系統搭建

準備階段 6.0以上版本需要jdk1.8,自行安裝 安裝Elasticsearch 1、解壓 tar -zxvf elasticsearch-6.0.0.tar.gz 2、配置 修改/elasticsearch-6.3.0/config下的配置檔案

logstash+elasticsearch+kibana搭建日誌收集分析系統

input { file { type => "api_log" path => "/home/jws/app/nginxserver/logs/apiaccess.log" debug

ELK(elasticsearch+logstash+kibana)實現Java分散式系統日誌分析架構

日誌是分析線上問題的重要手段,通常我們會把日誌輸出到控制檯或者本地檔案中,排查問題時通過根據關鍵字搜尋本地日誌,但越來越多的公司,專案開發中採用分散式的架構,日誌會記錄到多個伺服器或者檔案中,分析問題時可能需要檢視多個日誌檔案才能定位問題,如果相關專案不是一個團隊維護

搭建ELK(ElasticSearch+Logstash+Kibana)日誌分析系統(十四) logstash grok 正則解析日誌

摘要 這一節補充一下logstash使用grok正則解析日誌 Grok 是 Logstash 最重要的外掛。通過在filter中使用grok,可以把日誌中的關鍵字匹配出來。 grok正則主要有兩部分: 一是grok自帶的grok模式表示式,即是gr

elkb+redis建立日誌收集分析系統

elk redis 一、ELKB說明elastic提供了一套非常高級的工具ELKB來滿足以上這幾個需求。ELKB指的是用於日誌分析或者說數據分析的四個軟件,各自擁有獨立的功能又可以組合在一起。先來簡單介紹一下這四個軟件。Elastic Search: 從名稱可以看出,Elastic Search 是用

基於Flume+kafka打造實時日誌收集分析系統

Kafka broker修改conf/server.properties檔案,修改內容如下:           broker.id=1           host.name=172.16.137.196 port=10985           log.dirs=/data/kafka

zipkin+elk微服務日誌收集分析系統

docker安裝elk日誌分析系統 在win10上安裝docker環境 tip:win7/8 win7、win8 系統 win7、win8 等需要利用 docker toolbox 來安裝,國內可以使用阿里雲的映象來下載,下載地址:http://mirrors.aliyun.com/docker-toolbo

基於logstash+elasticsearch+kibana日誌收集分析方案(Windows

一 方案背景     通常,日誌被分散的儲存不同的裝置上。如果你管理數十上百臺伺服器,你還在使用依次登入每臺機器的傳統方法查閱日誌。這樣是不是感覺很繁瑣和效率低下。開源實時日誌分析ELK平臺能夠完美的解決日誌收集和日誌檢索、分析的問題,ELK就是指ElasticSear

Centos7使用ELK(Elasticsearch + Logstash + Kibana)搭建日誌集中分析平臺

Centos7下使用ELK(Elasticsearch + Logstash + Kibana)搭建日誌集中分析平臺   日誌監控和分析在保障業務穩定執行時,起到了很重要的作用,不過一般情況下日誌都分散在各個生產伺服器,且開發人員無法登陸生產伺服器,這時候就需要一個集中式的日誌收集裝置,對日誌中

docker 部署 ELK (elasticsearch + logstash + kibana) 收集分析 nginx 日誌

git 專案地址 https://github.com/Gekkoou/docker-elk 目錄結構 ├── elasticsearch elasticsearch目錄 │ └── es

CentOS7使用Elasticsearch+ Logstash+kibana快速搭建日誌分析平臺

centos7使用elasticsearch+ logstash+kibana快速搭建日誌分析平臺CentOS7使用Elasticsearch+ Logstash+kibana快速搭建日誌分析平臺介紹:安裝logstash,elasticsearch,kibana三件套,搜索程序一般由索引鏈及搜索組件組成。索

Elasticsearch+logstash+kibana實現日誌分析(實驗)

elasticsearch logstash kibana Elasticsearch+logstash+kibana實現日誌分析(實驗)一、前言 Elastic Stack(舊稱ELK Stack),是一種能夠從任意數據源抽取數據,並實時對數據進行搜索、分析和可視化展現的數據分析框架。(h

基於ElasticSearch+Logstash+Kibana日誌分析、儲存、展示

ELK簡介 ELK是一套完整的日誌解決方案,由ElasticSearch、Logstash、 Kibana這三款開源軟體組成。 EastiSearch是基於Lucene開發的分散式儲存檢引擎,用來儲存各類日誌; Logstash對日誌進行收集、分析,並將其儲存供以後使用: Ki

ELKStack分散式日誌查詢分析伺服器安裝及配置(ElasticSearchLogstashKibana、Redis)

ELK對於沒有接觸的來說,並沒有一般的服務那麼容易安裝和使用,不過也沒有那麼難,elk一般作為日誌分析套裝工具使用。logs由logstash輸 入,logstash通過配置檔案對日誌做過濾、匹配,就是用來分析日誌的,輸出到elasticsearch,所以他的配置需要和日誌相匹配。 elas

filebeat + kafka + logstash + Elasticsearch + Kibana日誌收集系統搭建

一、介紹        在日常運維工作中,對於系統和業務日誌的處理尤為重要。今天,在這裡分享一下自己部署的filebeat + kafka + ELK開源實時日誌分析平臺的記錄過程。 1、ELK介紹      &nbs

ELK(ElasticSearch, Logstash, Kibana)搭建實時日誌分析平臺筆記

1.ELK注意事項 1.1要求jdk1.8+ 1.2Elsearch不允許使用root啟動 1.3ELK三個包版本要一致 2.ELK下載地址 https://www.elastic.co/cn/downloads elasticsearch-6.1.1.tar.gz

ELK實時日誌分析平臺環境部署--完整記錄(ElasticSearch+Logstash+Kibana

在日常運維工作中,對於系統和業務日誌的處理尤為重要。今天,在這裡分享一下自己部署的ELK(+Redis)-開源實時日誌分析平臺的記錄過程(僅依據本人的實際操作為例說明,如有誤述,敬請指出)~================概念介紹================日誌主要包括系統日誌、應用程式日誌和安全日誌。系

ELK(ElasticSearch, Logstash, Kibana)搭建實時日誌分析平臺

摘要: ELK平臺介紹 在搜尋ELK資料的時候,發現這篇文章比較好,於是摘抄一小段: 以下內容來自:http://baidu.blog.51cto.com/71938/1676798 日誌主要包括系統日誌、應用程式日誌和安全日誌。 ELK平臺介紹 在搜尋ELK資料的時候,

ELK(ElasticSearch, Logstash, Kibana)+ SuperVisor + Springboot + Logback 搭建實時日誌分析平臺

日誌主要包括系統日誌、應用程式日誌和安全日誌。系統運維和開發人員可以通過日誌瞭解伺服器軟硬體資訊、檢查配置過程中的錯誤及錯誤發生的原因。經常分析日誌可以瞭解伺服器的負荷,效能安全性,從而及時採取措施糾正錯誤。 通常,日誌被分散的儲存不同的裝置上。如果你管理數十