kafka部署及例項命令 徹底刪除topic
阿新 • • 發佈:2019-02-12
1、安裝zookeeper
2、安裝kafka
Step 1: 下載Kafka
點選下載最新的版本並解壓.
> tar -xzf kafka_2.10-0.8.2.1.tgz > cd kafka_2.10-0.8.2.1
Step 2: 啟動服務
Kafka用到了Zookeeper,所有首先啟動Zookper,下面簡單的啟用一個單例項的Zookkeeper服務。可以在命令的結尾加個&符號,這樣就可以啟動後離開控制檯。> bin/zookeeper-server-start.sh config/zookeeper.properties & ...現在啟動Kafka:
> bin/kafka-server-start.sh config/server.properties& ...
Step 3: 建立 topic
建立一個叫做“test”的topic,它只有一個分割槽,一個副本。> bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic test可以通過list命令檢視建立的topic:
> bin/kafka-topics.sh --list --zookeeper localhost:2181 test除了手動建立topic,還可以配置broker讓它自動建立topic.
Step 4:傳送訊息.
執行producer並在控制檯中輸一些訊息,這些訊息將被髮送到服務端:
> bin/kafka-console-producer.sh --broker-list localhost:9092 --topic test This is a messageThis is another message
ctrl+c可以退出傳送。
Step 5: 啟動consumer
Kafka also has a command line consumer that will dump out messages to standard output. Kafka也有一個命令列consumer可以讀取訊息並輸出到標準輸出:> bin/kafka-console-consumer.sh --zookeeper localhost:2181 --topic test --from-beginningThis is a message This is another message
你在一個終端中執行consumer命令列,另一個終端中執行producer命令列,就可以在一個終端輸入訊息,另一個終端讀取訊息。
這兩個命令都有自己的可選引數,可以在執行的時候不加任何引數可以看到幫助資訊。
Step 6: 搭建一個多個broker的叢集
剛才只是啟動了單個broker,現在啟動有3個broker組成的叢集,這些broker節點也都是在本機上的: 首先為每個節點編寫配置檔案: > cp config/server.properties config/server-1.properties> cp config/server.properties config/server-2.properties在拷貝出的新檔案中新增以下引數:
config/server-1.properties: broker.id=1 port=9093 log.dir=/tmp/kafka-logs-1 config/server-2.properties: broker.id=2 port=9094 log.dir=/tmp/kafka-logs-2broker.id在叢集中唯一的標註一個節點,因為在同一個機器上,所以必須制定不同的埠和日誌檔案,避免資料被覆蓋。 We already have Zookeeper and our single node started, so we just need to start the two new nodes: 剛才已經啟動可Zookeeper和一個節點,現在啟動另外兩個節點:
> bin/kafka-server-start.sh config/server-1.properties & ... > bin/kafka-server-start.sh config/server-2.properties & ...建立一個擁有3個副本的topic:
> bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 3 --partitions 1 --topic my-replicated-topic現在我們搭建了一個叢集,怎麼知道每個節點的資訊呢?執行“"describe topics”命令就可以了:
> bin/kafka-topics.sh --describe --zookeeper localhost:2181 --topic my-replicated-topic Topic:my-replicated-topic PartitionCount:1 ReplicationFactor:3 Configs: Topic: my-replicated-topic Partition: 0 Leader: 1 Replicas: 1,2,0 Isr: 1,2,0
下面解釋一下這些輸出。第一行是對所有分割槽的一個描述,然後每個分割槽都會對應一行,因為我們只有一個分割槽所以下面就只加了一行。
- leader:負責處理訊息的讀和寫,leader是從所有節點中隨機選擇的.
- replicas:列出了所有的副本節點,不管節點是否在服務中.
- isr:是正在服務中的節點.
向topic傳送訊息:
> bin/kafka-console-producer.sh --broker-list localhost:9092 --topic my-replicated-topic ... my test message 1my test message 2^C消費這些訊息:
> bin/kafka-console-consumer.sh --zookeeper localhost:2181 --from-beginning --topic my-replicated-topic ... my test message 1 my test message 2 ^C測試一下容錯能力.Broker 1作為leader執行,現在我們kill掉它:
> ps | grep server-1.properties7564 ttys002 0:15.91 /System/Library/Frameworks/JavaVM.framework/Versions/1.6/Home/bin/java... > kill -9 7564另外一個節點被選做了leader,node 1 不再出現在 in-sync 副本列表中:
> bin/kafka-topics.sh --describe --zookeeper localhost:218192 --topic my-replicated-topic Topic:my-replicated-topic PartitionCount:1 ReplicationFactor:3 Configs: Topic: my-replicated-topic Partition: 0 Leader: 2 Replicas: 1,2,0 Isr: 2,0雖然最初負責續寫訊息的leader down掉了,但之前的訊息還是可以消費的:
> bin/kafka-console-consumer.sh --zookeeper localhost:2181 --from-beginning --topic my-replicated-topic ... my test message 1 my test message 2 ^C
看來Kafka的容錯機制還是不錯的。 topic刪除 (1)刪除日誌目錄下的topic相關檔案 (2)刪除zookeeper裡的資料 登入zookeeper客戶端: cd $ZOOKEEPER_HOME bin/zkCli.sh 刪除 ls /config/topics/topicname 和 ls /brokers/topics/topicname 以上兩步全執行才會徹底刪除