1. 程式人生 > >Druid的傳送資料和查詢資料

Druid的傳送資料和查詢資料

目錄:

1、需求

2、參考

3、資料和配置

4、展現

5、注意事項

————————————————————————————–

1、需求

參考官網,使用Linux向Druid傳送資料和查詢資料

2、參考

配置來源 : 使用druid的預設配置檔案
/home/druid/druid-0.9.2/quickstart/wikiticker-index.json

3、資料和配置

1、將官網的資料中的日期修改為當前日期,我只修改了YYYY-MM-DD
2、將basicdata.json放入到HDFS,路徑為:/user/druid/basicdata.json
3、將預設配置的dimensions列名,修改為basicdata.json的列名

測試的資料 :basicdata.json

{"timestamp": "2017-03-17T01:02:33Z", "page": "Gypsy Danger", "language" : "en", "user" : "nuclear", "unpatrolled" : "true", "newPage" : "true", "robot": "false", "anonymous": "false", "namespace":"article", "continent":"North America", "country":"United States", "region":"Bay Area"
, "city":"San Francisco", "added": 57, "deleted": 200, "delta": -143} {"timestamp": "2017-03-17T03:32:45Z", "page": "Striker Eureka", "language" : "en", "user" : "speed", "unpatrolled" : "false", "newPage" : "true", "robot": "true", "anonymous": "false", "namespace":"wikipedia", "continent":"Australia", "country
":"Australia", "region":"Cantebury", "city":"Syndey", "added": 459, "deleted": 129, "delta": 330} {"timestamp": "2017-03-17T07:11:21Z", "page": "Cherno Alpha", "language" : "ru", "user" : "masterYi", "unpatrolled" : "false", "newPage" : "true", "robot": "true", "anonymous": "false", "namespace":"article", "continent":"Asia", "country":"Russia", "region":"Oblast", "city":"Moscow", "added": 123, "deleted": 12, "delta": 111} {"timestamp": "2017-03-17T11:58:39Z", "page": "Crimson Typhoon", "language" : "zh", "user" : "triplets", "unpatrolled" : "true", "newPage" : "false", "robot": "true", "anonymous": "false", "namespace":"wikipedia", "continent":"Asia", "country":"China", "region":"Shanxi", "city":"Taiyuan", "added": 905, "deleted": 5, "delta": 900} {"timestamp": "2017-03-17T12:41:27Z", "page": "Coyote Tango", "language" : "ja", "user" : "cancer", "unpatrolled" : "true", "newPage" : "false", "robot": "true", "anonymous": "false", "namespace":"wikipedia", "continent":"Asia", "country":"Japan", "region":"Kanto", "city":"Tokyo", "added": 1, "deleted": 10, "delta": -9}

測試的配置: data_schema.json

{
  "type" : "index_hadoop",
  "spec" : {
    "ioConfig" : {
      "type" : "hadoop",
      "inputSpec" : {
        "type" : "static",
        "paths" : "/user/druid/basicdata.json"
      }
    },
    "dataSchema" : {
      "dataSource" : "silentwolf",
      "granularitySpec" : {
        "type" : "arbitrary",
        "segmentGranularity" : "day",
        "queryGranularity" : "none",
        "intervals" : ["2017-03-17/2017-03-18"]
      },
      "parser" : {
        "type" : "hadoopyString",
        "parseSpec" : {
          "format" : "json",
          "dimensionsSpec" : {
            "dimensions" : [
        "page",
        "language",
        "user",
        "unpatrolled",
        "newPage",
        "robot",
        "anonymous",
        "namespace",
        "continent",
        "country",
        "region",
        "city"
         ]
          },
          "timestampSpec" : {
            "format" : "auto",
            "column" : "timestamp"
          }
        }
      },
      "metricsSpec" : [
        {
          "name" : "count",
          "type" : "count"
        },
        {
          "name" : "added",
          "type" : "longSum",
          "fieldName" : "added"
        },
        {
          "name" : "deleted",
          "type" : "longSum",
          "fieldName" : "deleted"
        },
        {
          "name" : "delta",
          "type" : "longSum",
          "fieldName" : "delta"
        }
      ]
    },
    "tuningConfig" : {
      "type" : "hadoop",
      "jobProperties" : {}
    }
  }
}

測試的查詢配置:queryall.json

    {
        "queryType": "timeseries",
        "dataSource": "silentwolf",
        "intervals": [ "2017-03-17/2017-03-18" ],
        "granularity": "day",
        "aggregations": [
            {"type": "count", "name": "count"},
            { "name" : "deleted","type" : "longSum", "fieldName" : "deleted"},
            { "name" : "delta","type" : "longSum","fieldName" : "delta"}
     ]

    }

4、展現

傳送命令

[root@tagtic-master boke]# curl -X 'POST' -H 'Content-Type: application/json' -d @data_schema.json tagtic-master:18090/druid/indexer/v1/task

查詢命令

[root@tagtic-master boke]# curl -X POST 'tagtic-slave01:18082/druid/v2/?pretty' -H 'Content-Type:application/json' -d @queryall.json 

傳送、查詢、資料展現
這裡寫圖片描述

資料傳送狀態
這裡寫圖片描述

這裡寫圖片描述

5、注意事項

1、找到Druid叢集中broker的server和埠,我的broker的埠為18082

[[email protected] yuhui]# ps -ef | grep broker
druid     52680  52675  1 220 ?       06:31:04 java -server -Xms16g -Xmx16g -XX:MaxDirectMemorySize=4096m -Duser.timezone=UTC -Dfile.encoding=UTF-8 -Djava.io.tmpdir=var/tmp -Djava.util.logging.manager=org.apache.logging.log4j.jul.LogManager -cp conf/druid/_common:conf/druid/broker:lib/* io.druid.cli.Main server broker
root      89216  67823  0 17:03 pts/0    00:00:00 grep --color=auto broker

2、測試資料要放到HDFS上面

3、dimensions中的列名不要和metricsSpec中的name一樣

       如果您喜歡我寫的博文,讀後覺得收穫很大,不妨小額贊助我一下,讓我有動力繼續寫出高質量的博文,感謝您的讚賞!!!

相關推薦

Druid傳送資料查詢資料

目錄: 1、需求 2、參考 3、資料和配置 4、展現 5、注意事項 ————————————————————————————– 1、需求 參考官網,使用Linux向Druid傳送資料和查詢資料 2、參考 配

Sqlite3插入資料查詢資料

1. //表單:Record(USN+有線MAC地址+無線MAC地址) //查詢 #define QUERY_SQL_SN "SELECT * FROM Record WHERE USN = '%s'" #define QUERY_SQL_MAC "SELECT * FRO

JDBC連結本地MySQL資料庫,建立表結構並新增資料查詢資料

首先我們要下載JDBC的jar包,本專案中jar放在了lib目錄中,大家可以直接使用我這個mysql-connector-java-5.1.42-bin.jar包。 然後新增一個Main,使用JDBC連結MySQL資料庫,建立表結構並新增資料和查詢資料 具體

robotframework 學習(2) :使用RIDE進行介面測試之傳送請求接收資料斷言

一、RIDE的介紹:         RIDE是robotframework圖形操作前端,也可以理解為一種編輯器,它以cell的形式來進行定義資料和方法,返回結果等,我們可以使用它進行建立測試用例和編寫測試指令碼,並且執行自動化測試。  

plsql 查詢blob資料clob資料型別

好幾次遇到這個問題,只是沒有記錄,這次終於記得要把這點東西給記錄下來 select t.id,t.certdn,t.algo,utl_raw.cast_to_varchar2(dbms_lob.substr(t.plaintext)) plaintext from db_s_

oracle中從4個表查詢資料並插入到另一張表裡 擴充套件到查詢到的資料其他資料共同插入

因為業務的需要,現在需要查詢4個表裡的資料並插入到另一個表內且對應自己想要對應的列。 且表的id應該是根據序列自動生成。 具體建立序列什麼的都不說了,直接上程式碼,欄位都沒改,最近太忙了。 insert into TB_POST_REQUIRE_INFO (id, BE

unity網路實戰開發(叢林戰爭)-前期知識準備(003-開發伺服器端的傳送資料接收資料

使用工具:VS2015使用語言:c#作者:Gemini_xujian參考:siki老師-《叢林戰爭》視訊教程繼上一篇文章內容,這節課講解一下伺服器端的傳送資料和接收資料。上篇文章完成了ip和埠號的繫結,接下來,我們首先需要監聽埠並接收客戶端的連線serverSocket.Li

Python爬蟲之requests庫(三):傳送表單資料JSON資料

import requests 一、傳送表單資料 要傳送表單資料,只需要將一個字典傳遞給引數data payload = {'key1': 'value1', 'key2': 'value

sql server 統計資料庫中某個欄位的值,剔除重複資料查詢重複的資料

1.有的時候,在資料庫中存在一些重複的資料,但是我們又想統計某個欄位的值,重複的要剔除掉,如圖所示: 在上面的圖我們可以看到,id=2,3 id=4,5的4條資料都重複了,我們統計amount只要其

Solr記錄-solr檢索查詢資料

Solr檢索資料在本章中,我們將討論如何使用Java Client API檢索資料。假設有一個名為sample.csv的.csv文件,其中包含以下內容。001,9848022337,Hyderabad,Rajiv,Reddy 002,9848022338,Kolkata,

Hibernate中使用HQLQuery查詢全部資料部分資料

package com.lc.view; import java.util.Iterator; import java.util.List; import org.hibernate.Session; import org.hibernate.Transaction;

STM32串列埠傳送資料接收資料方式總結

       之前寫了篇關於ESP8266使用AT指令進行互相通訊的實驗,在寫STM32串列埠接發資料的程式中,覺得有必要將之前學的有關於串列埠方面的使用經歷加以總結。 串列埠傳送資料:        1. 串列埠傳送資料最直接的方式就是標準呼叫庫函式 。 void

分別使用PreparedStatementStatement對mysql資料庫進行建立表,增加資料查詢資料刪除資料過程

在使用eclipse工具編寫Java程式碼連線資料庫並對資料庫進行處理時,總會用到對資料的增刪改查操作。那麼這個 時候就用到了java自帶的sql庫中的PreparedStatement或者Statement了。 其實PreparedStatement和Statement使

java中從控制檯輸入資料輸出資料到控制檯

1.從控制檯輸入資料 1.使用Scanner類來完成從命令列輸入資料到自己的程式中。 2.Scanner類是JDK1.5【jdk5.0】新增的一個開發類庫。 3.Scanner類使用     3.1先匯入Scanner類所在的程式包【java.util.Sca

ElasticSearch 學習記錄之 分散式文件儲存往ES中存資料資料的原理

分散式文件儲存 ES分散式特性 遮蔽了分散式系統的複雜性 叢集內的原理 垂直擴容和水平擴容 真正的擴容能力是來自於水平擴容–為叢集新增更多的節點,並且將負載壓力和穩定性分散到這些節點中 ES叢集特點 一個叢集擁有相同

【ArcGIS|空間分析】柵格資料向量資料的面積計算

柵格向量資料計算面積之前,都需要將資料進行投影轉換,設定單位以方便計算。 文章目錄 1、柵格資料面積計算 方法一:新增欄位並計算 方法二:以表格顯示分割槽統計 2、 向量資料面積計算 1、柵格資料

SQL Server插入資料刪除資料

首先在我的Student表中插入幾條資料,由於我的表已經建立完成了,所以就沒有建立表的 sql 語句了,不過可以看我的上一篇文章: http://www.cnblogs.com/Brambling/p/6649350.html 插入資料sql語句: 1  insert into Student(S

Android使用上下文獲取資料寫入資料

本文是在上一篇博文的基礎上使用上下文儲存使用者名稱和密碼,讀取使用者名稱和密碼的 上一篇博文連結:https://blog.csdn.net/liyunfu233/article/details/84072958 下面是和上一篇博文不同之處,因為修改了儲存資料和讀取資料的形參,所以在Main

風火程式設計--python獲取單隻股票實時資料歷史資料

獲取股票資料 這本來是專門為我的一個單一選股模型提供資料的類, 因此封裝的只是模型中需要的資料. 如有其它需求可以自己擴充套件. 積分多的可以下載檔案, 沒積分的直接複製下面的程式碼是一樣的. 程式碼不復雜, 一看就懂. 歡迎加qq或微信(77245741)共同探討. # cod

定時備份指令碼分享(網站資料資料庫資料

1)網站資料備份 將網站資料/var/www/vhost/www.hqsb.com和/var/www/vhost/www.huanqiu.com分別備份到: /Data/code-backup/www.hqsb.com和/Data/code-backup/www.huanqiu.com下。 &nbs