1. 程式人生 > >新版flume+kafka+storm安裝部署

新版flume+kafka+storm安裝部署

Download the 0.8.2.0 release and un-tar it.
> tar -xzf kafka_2.10-0.8.2.0.tgz
> cd kafka_2.10-0.8.2.0

Step 2: Start the server

Kafka uses ZooKeeper so you need to first start a ZooKeeper server if you don't already have one. You can use the convenience script packaged with kafka to get a quick-and-dirty single-node ZooKeeper instance.

> bin/zookeeper-server-start.sh config/zookeeper.properties
[2013-04-22 15:01:37,495] INFO Reading configuration from: config/zookeeper.properties (org.apache.zookeeper.server.quorum.QuorumPeerConfig)
...
Now start the Kafka server:
> bin/kafka-server-start.sh config/server.properties
[2013-04-22 15:01:47,028] INFO Verifying properties (kafka.utils.VerifiableProperties)
[2013-04-22 15:01:47,051] INFO Property socket.send.buffer.bytes is overridden to 1048576 (kafka.utils.VerifiableProperties)
...

Step 3: Create a topic

Let's create a topic named "test" with a single partition and only one replica:
> bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic test
We can now see that topic if we run the list topic command:
> bin/kafka-topics.sh --list --zookeeper localhost:2181
test
Alternatively, instead of manually creating topics you can also configure your brokers to auto-create topics when a non-existent topic is published to.

Step 4: Send some messages

Kafka comes with a command line client that will take input from a file or from standard input and send it out as messages to the Kafka cluster. By default each line will be sent as a separate message.

Run the producer and then type a few messages into the console to send to the server.

> bin/kafka-console-producer.sh --broker-list localhost:9092 --topic test 
This is a message
This is another message

Step 5: Start a consumer

Kafka also has a command line consumer that will dump out messages to standard output.bin/kafka-console-consumer.sh --zookeeper localhost:2181 --topic test --from-beginning
This is a message
This is another message

相關推薦

新版flume+kafka+storm安裝部署

Download the 0.8.2.0 release and un-tar it. > tar -xzf kafka_2.10-0.8.2.0.tgz > cd kafka_2.10-0.8.2.0 Step 2: Start the server Kafka uses ZooKeeper

flume+kafka+storm單機部署

flume-1.6.0 kafka0.9.0.0 storm0.9.6 一.部署flume 1.解壓 tar -xzvf apache-flume-1.6.0-bin.tar.gz -C ../app/ 2.在conf目錄中新增自己的配置檔案,內容是source、sink、

Flume+Kafka+Storm+Redis構建大數據實時處理系統:實時統計網站PV、UV+展示

大數據 實時計算 Storm [TOC] 1 大數據處理的常用方法 前面在我的另一篇文章中《大數據采集、清洗、處理:使用MapReduce進行離線數據分析完整案例》中已經有提及到,這裏依然給出下面的圖示: 前面給出的那篇文章是基於MapReduce的離線數據分析案例,其通過對網站產生的用戶訪問

Apache Flume簡介及安裝部署

display 根據 buffers type hello headers agent tran 結構圖 概述 Flume 是 Cloudera 提供的一個高可用的,高可靠的,分布式的海量日誌采集、聚合和傳輸的軟件。 Flume 的核心是把數據從數據源(source)收集

新版Greenplum Command Center 安裝部署

md5 健康 temp 生效 及其 查看系統 row postgres console 集群系統初始化信息: 系統初始化參考:http://blog.51cto.com/michaelkang/2167195集群安裝配置參考:http://blog.51cto.com/mi

Storm安裝部署遇到的問題

Caused by: while parsing a block mapping in ‘reader’, line 18, column 2: storm.zookeeper.serve #解決方案 注意 storm.zookeeper.servers: nimbus.seeds:

Flume+Kafka+Storm+Redis實時分析系統基本架構

今天作者要在這裡通過一個簡單的電商網站訂單實時分析系統和大家一起梳理一下大資料環境下的實時分析系統的架構模型。當然這個架構模型只是實時分析技術的一 個簡單的入門級架構,實際生產環境中的大資料實時分析技術還涉及到很多細節的處理, 比如使用Storm的ACK機制保證資料都能被正確處理, 叢集的高可用架構

flume+kafka+storm的整合使用

Flume-ng Flume是一個分散式、可靠、和高可用的海量日誌採集、聚合和傳輸的系統。        不過這裡寫寫自己的見解 這個是flume的架構圖  從上圖可以看到幾個名詞: Agent: 一個Agent包含Source、Channel、Sink和其他的元件

Flume+Kafka+Storm+Redis構建大資料實時處理系統

資料處理方法分為離線處理和線上處理,今天寫到的就是基於Storm的線上處理。在下面給出的完整案例中,我們將會完成下面的幾項工作: 如何一步步構建我們的實時處理系統(Flume+Kafka+Storm+Redis) 實時處理網站的使用者訪問日誌,並統計出該網站的PV、UV 將實時

Storm安裝部署

1.基礎環境準備 前提是安裝好jdk,zookeeper這裡不做描述 2.安裝storm 下載安裝包 解壓安裝包 tar -zxvf apache-storm-0.9.5.tar.gz

kafka的web管理工具---kafka-manager安裝部署

關於kafka叢集的安裝配置,請移步:https://blog.csdn.net/Johnson8702/article/details/84588095   一、背景 在kafka裡面沒有一個較好自帶的web ui,啟動之後無法通過頁面檢視,所以,在這裡介紹一個第三方的kaf

安裝部署(六) Kafka叢集安裝部署以及Producer和Consumer的JAVA程式碼測試

Kafka叢集安裝部署以及Producer和Consumer的JAVA程式碼測試 kafka scala2.11_0.10.0.0 ubuntu 14.04.04 x64 hadoop 2.7.2spark 2.0.0 scala 2.11.8 jdk 1.8.0_101

Storm安裝部署與應用(1)

最近在使用Storm實時計算框架,總結一下學習到的知識。以下陳述純屬個人觀點,如有錯誤,請斧正。關於Storm是做什麼的?Storm是一個流式實時計算框架。何為流式?簡單的說流水線模式,一個接一個的向下一個流轉。何為實時?關於實時,就是Storm能夠做到毫秒級甚至納秒級梳理一

基於flume+kafka+storm日誌收集系統搭建

基於flume+kafka+storm日誌收集系統搭建 1.     環境 192.168.0.2 hadoop1 192.168.0.3 hadoop2 192.168.0.4 hadoop3 已經

分散式訊息中介軟體(四)——Flume+Kafka+Storm+Redis生態架構實戰

一、Kafka專案應用架構分析 1、Kafka生態架構        資料收集的速度,跟處理的速度不一定一致,故使用Kafka中介軟體作為資料收集和資料處理的一個Access入口,接收flume收集的資料,並通過kafkaSpout提交給Storm進行處理。 2、kafka

Kafka安裝部署(分散式部署安裝

官網:http://kafka.apache.org/quickstart Kafka強依賴ZK,如果想要使用Kafka,就必須安裝ZK,Kafka中的消費偏置資訊、kafka叢集、topic資訊會被儲存在ZK中。有人可能會說我在使用Kafka的時候就沒有安裝ZK,那是因為Kafka內建

docker kafka叢集安裝部署

安裝包下載 前置準備 jdk映象 kafka安裝包 解壓 tar -zxvf kafka_2.10-0.8.2.1.tgz -C /usr/local mv kafka_2.10-0.8.2.1 kafka cd /usr/local/kafka/config

flume 1.8 安裝部署

環境 centos:7.2 JDK:1.8 Flume:1.8 一、Flume 安裝 1)        下載 2)        解壓 tar –zxvf apache-flume-1.8.0-bin.tar.gz mv apache-flume-1.8.0-bin /usr/loc

flume+kafka+storm+mysql

一直以來都想接觸Storm實時計算這塊的東西,最近在群裡看到上海一哥們羅寶寫的Flume+Kafka+Storm的實時日誌流系統的搭建文件,自己也跟著整了一遍,之前羅寶的文章中有一些要注意點沒提到的,以後一些寫錯的點,在這邊我會做修正;內容應該說絕大部分引用羅寶的文章的,

nginx ---->flume ----->kafka ----> storm -----> hdfs

大資料架構簡單流程圖 nginx ---->flume ----->kafka ----> storm -----> hdfs(mysql)------>hbse(hive)---->spark(MR) 1).資料採集 負