1. 程式人生 > >confluent4.0安裝和kafka connect快速使用

confluent4.0安裝和kafka connect快速使用

安裝

需要JDK 1.7以上版本。

直接解壓就可以使用了。

加入全域性path目錄:

export PATH=<path-to-confluent>/bin:$PATH

啟動

$ confluent start
Starting zookeeper
zookeeper is [UP]
Starting kafka
kafka is [UP]
Starting schema-registry
schema-registry is [UP]
Starting kafka-rest
kafka-rest is [UP]
Starting connect
connect
is [UP]

檢視日誌檔案目錄

$ confluent current
# /tmp/confluent.BnzjkBY7

列出連線

$ confluent list connectors
Bundled Predefined Connectors (edit configuration under etc/):
  elasticsearch-sink
  file-source
  file-sink
  jdbc-source
  jdbc-sink
  hdfs-sink
  s3-sink

把本地檔案當作生產者源

屬性檔案在./etc/kafka/connect-file-source.properties

# User defined connector instance name.
name=file-source
# The class implementing the connector
connector.class=FileStreamSource
# Maximum number of tasks to run for this connector instance
tasks.max=1
# The input file (path relative to worker's working directory)
# This is the only setting specific to the FileStreamSource
file=test.txt # The output topic in Kafka topic=connect-test

弄一些測試資料:

$ for i in {1..3}; do echo "log line $i"; done > test.txt

載入檔案源

$ confluent load file-source
{
  "name": "file-source",
  "config": {
    "connector.class": "FileStreamSource",
    "tasks.max": "1",
    "file": "test.txt",
    "topics": "connect-test",
    "name": "file-source"
  },
  "tasks": []
}

檢視載入的聯結器

$ confluent status connectors
[
  "file-source"
]

檢視具體聯結器狀態

可以使用這個方法來排錯,經常使用。

$ confluent status file-source
{
  "name": "file-source",
  "connector": {
    "state": "RUNNING",
    "worker_id": "192.168.10.1:8083"
  },
  "tasks": [
    {
      "state": "RUNNING",
      "id": 0,
      "worker_id": "192.168.10.1:8083"
    }
  ]
}

在命令列裡檢視訊息

$ kafka-avro-console-consumer --bootstrap-server localhost:9092 --topic connect-test --from-beginning
  "log line 1"
  "log line 2"
  "log line 3"

使用聯結器寫檔案資料

使用聯結器file-sink,配置程式碼在./etc/kafka/connect-file-sink.properties:

# User defined name for the connector instance
name=file-sink
# Name of the connector class to be run
connector.class=FileStreamSink
# Max number of tasks to spawn for this connector instance
tasks.max=1
# Output file name relative to worker's current working directory
# This is the only property specific to the FileStreamSink connector
file=test.sink.txt
# Comma separate input topic list
topics=connect-test

載入消費檔案聯結器

$ confluent load file-sink
{
  "name": "file-sink",
  "config": {
    "connector.class": "FileStreamSink",
    "tasks.max": "1",
    "file": "test.sink.txt",
    "topics": "connect-test",
    "name": "file-sink"
  },
  "tasks": []
}

檢視狀態

$ confluent status file-sink
{
  "name": "file-sink",
  "connector": {
    "state": "RUNNING",
    "worker_id": "192.168.10.1:8083"
  },
  "tasks": [
    {
      "state": "RUNNING",
      "id": 0,
      "worker_id": "192.168.10.1:8083"
    }
  ]
}

現在就有倆聯結器了:

$ confluent status connectors
[
  "file-source",
  "file-sink"
]

檢視效果

$ tail -f test.sink.txt

隨機寫入一些資料:

$ for i in {4..1000}; do echo "log line $i"; done >> test.txt

出來了:

"log line 1"
"log line 2"
"log line 3"
"log line 4"
"log line 5"
 ...

解除安裝聯結器

$ confluent unload file-source
$ confluent unload file-sink

停用聯結器

$ confluent stop connect
Stopping connect
connect is [DOWN]

關閉confluent

$ confluent stop
Stopping connect
connect is [DOWN]
Stopping kafka-rest
kafka-rest is [DOWN]
Stopping schema-registry
schema-registry is [DOWN]
Stopping kafka
kafka is [DOWN]
Stopping zookeeper
zookeeper is [DOWN]

消滅痕跡

$ confluent destroy
Stopping connect
connect is [DOWN]
Stopping kafka-rest
kafka-rest is [DOWN]
Stopping schema-registry
schema-registry is [DOWN]
Stopping kafka
kafka is [DOWN]
Stopping zookeeper
zookeeper is [DOWN]
Deleting: /tmp/confluent.BnzjkBY7

參考

相關推薦

confluent4.0安裝kafka connect快速使用

安裝 需要JDK 1.7以上版本。 直接解壓就可以使用了。 加入全域性path目錄: export PATH=<path-to-confluent>/bin:$PATH 啟動 $ confluent start Start

CentOS6.8下Nagios-4.2.0安裝配置

因此 figure 問題 usermod linux文件 httpd的配置 pen kconfig etc 1實驗目標 掌握Nagios的安裝 2實驗環境 主機名:Nagios-Server 操作系統:CentOS release 6.8 (Final) IP地址:19

zabbix4.0安裝配置

                                以下為master端安裝,開始 核心$ cat /etc/centos-release   CentOS Linux release 7.4.1708 (Core) $ uname -r   3.10.0-693.el7.x86_64 IP

linux ubuntu 下 mongodb 4.0 安裝配置遠端連線

安裝 搬運: 安裝教程 選擇對應版本,複製貼上命令即可,這裡就不涉及了。 安裝完成後啟動服務:sudo service mongod start 如果提示Unit mon

vue-cli 3.0安裝使用

Vue CLI介紹 Vue CLI 是一個基於 Vue.js 進行快速開發的完整系統,提供: 通過 @vue/cli 搭建互動式的專案腳手架。 通過 @vue/cli + @vue/cli-servic

spark-2.2.0安裝部署

Spark下載 為了方便,我直接是進入到了/usr/local資料夾下面進行下載spark-2.2.0 wget https://d3kbcqa49mib13.cloudfront.net/spark-2.2.0-bin-hadoop2.7.tgz Spark安裝之前的準備 檔案的解壓與

node.js學習1.0-安裝配置

 1、開啟NodeJS的官網,下載和自己系統相配的NodeJS的安裝程式,包括32位還是64位一定要選擇好,否則會出現安裝問題。          我選擇的是Window版本64位的安裝程式,也有MAC平臺的安裝程式。     下載完成,如圖:     2、接下來就是安裝了,

CUDA8.0安裝vs2015配置

1、新建空專案2、新增test.cu3、右鍵專案---生成依賴項--生成自定義---CUDA8.0打鉤4、右鍵test.cu---屬性--選擇CUDA C/C++5、包含目錄C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\

Tesseract-OCR 3.0+ 安裝使用

終端輸入命令:tesseract --help Usage: tesseract --help | --help-psm | --version tesseract --list-langs [--tessdata-dir PATH] tesseract --print-parameters [

ActiveMQ-5.9.0 安裝啟動

安裝環境:linux activemq版本:5.9.0 2.解壓縮到指定的目錄 Shell程式碼   tar zxvf apache-activemq-5.9.0-bin.tar.gz -C /usr/local   解壓縮後會在/usr/local下生成apa

ActiveMQ-5.8.0 安裝啟動

安裝環境:linux rhe activemq版本:5.8.0 2.解壓縮到指定的目錄 Shell程式碼   tar zxvf apache-activemq-5.8.0-bin.tar.gz -C /usr/local   解壓縮後會在/usr/local下生成

Hyperledger Fabric 1.0 安裝使用

Hyperledger Fabric 1.0 版本整體 重新設計了架構,預計將於今年 3 月份釋出。目前已經進入了 alpha 階段,可以進行功能性驗證。本文將介紹如何快速啟動一個 Fabric 1.0 的網路,並部署和呼叫 chaincode 進行測試。安裝 DockerD

centos7中hive3.1.0安裝部署

一 前期準備 1. hadoop叢集 版本: 2.8.4 2 mysql 版本: 5.7.21 3 mysql驅動 版本: 5.1.46 4 hive安裝包 hive-3.1.0 二 hive安裝 1 解壓和配置 # 解壓 tar -zxvf

Spark2.1.0安裝配置

Spark主要使用HDFS充當持久化層,所以完整地使用Spark需要預先安裝Hadoop Spark在生產環境中,主要部署在安裝Linux系統的叢集中。在Linux系統中安裝Spark需要預先安裝JDK、Scala等所需要的依賴。 由於

VMware下OSSIM 5.0安裝使用小結

1. 概述 OSSIM即開源安全資訊管理系統(Open Source Security Information Management),是目前一個非常流行和完整的開源安全架構體系。 OSSIM通過將開源產品進行整合,從而提供一個能夠實現安全監控功能的、集中式、有組織的基礎框

Visual C++ 6.0 安裝使用

bug program mic soft jpg 技術 http 窗口 控制 新建一個控制臺程序 默認位置C:\Program Files\Microsoft Visual Studio\MyProjects\001C bui

Kafka-0.10.1叢集的安裝配置

準備 1.kafka_2.10-0.10.1.1.tgz 2.安裝配置好的Zookeeper-3.4.10分散式叢集 mini1:192.168.213.133 mini2:192.168.213.134 mini3:192.168.213.135

kafka安裝使用

grep keys operator comment 隨機 寫入 實時流處理 生產者 keyword kafka安裝和啟動 kafka的背景知識已經講了很多了,讓我們現在開始實踐吧,假設你現在沒有Kafka和ZooKeeper環境。 Step 1: 下

Kafka安裝設置

發布 scp keep 三種模式 conf 多個 file 解壓 path Kafka是一種分布式發布訂閱消息系統。 Kafka有三種模式: (1)單節點單Broker,在一臺機器上運行一個Kafka實例; (2)單節點多Broker,在一臺機器上運行多個Kafka實

(一)在Linux上安裝編譯OpenCV3.0.0

接口 mac os color 下載源 同時 beta c函數 install mkdir OpenCV的全稱是:Open Source Computer Vision Library。OpenCV是一個基於(開源)發行的跨平臺計算機視覺庫,可以運行在Linux、W