1. 程式人生 > >Kafka _0.10.1.0 liunx安裝

Kafka _0.10.1.0 liunx安裝

1. 下載、解壓Kafka安裝包

wget http://archive.apache.org/dist/kafka/0.10.1.0/kafka_2.10-0.10.1.0.tgz
tar -xzvf kafka_2.10-0.10.1.0.tgz
mv kafka_2.11-0.8.2.1 /usr/local/kafka #移動到安裝目錄

2、配置kafka

mkdir /usr/local/kafka/log/kafka #建立kafka日誌目錄

cd /usr/local/kafka/config #進入配置目錄

vi server.properties #編輯修改kafka相應的引數

broker.id=0

port=9092 #埠號

host.name=192.168.0.11 #伺服器IP地址,修改為自己的伺服器IP

log.dirs=/usr/local/kafka/log/kafka #日誌存放路徑,上面建立的目錄

zookeeper.connect=localhost:2182 #zookeeper地址和埠,單機配置部署,localhost:2182

:wq! #儲存退出

3、配置zookeeper

mkdir /usr/local/kafka/zookeeper #建立zookeeper目錄

mkdir /usr/local/kafka/log/zookeeper #建立zookeeper日誌目錄

cd /usr/local/kafka/config #進入配置目錄

vi zookeeper.properties #編輯修改相應的引數

dataDir=/usr/local/kafka/zookeeper #zookeeper資料目錄

dataLogDir=/usr/local/kafka/log/zookeeper #zookeeper日誌目錄

clientPort=2181

maxClientCnxns=100

tickTime=2000

initLimit=10

syncLimit=5

:wq! #儲存退出

4.啟動

啟動zookeeper
/usr/local/kafka/bin/zookeeper-server-start.sh  /usr/local/kafka/config/zookeeper.properties &
啟動kafaka
/usr/local/kafka/bin/kafka-server-start.sh /usr/local/kafka/config/server.properties &

5.kafka shell命令:

./kafka-topics.sh --zookeeper 192.168.226.129:2182  --describe --topic  orderTopic  ;檢視名字為orderTopic的topic

./kafka-topics.sh --zookeeper 192.168.226.129:2182 --list   ;檢視topic 列表

相關推薦

Kafka _0.10.1.0 liunx安裝

1. 下載、解壓Kafka安裝包 wget http://archive.apache.org/dist/kafka/0.10.1.0/kafka_2.10-0.10.1.0.tgz tar -x

Kafka-0.10.1叢集的安裝和配置

準備 1.kafka_2.10-0.10.1.1.tgz 2.安裝配置好的Zookeeper-3.4.10分散式叢集 mini1:192.168.213.133 mini2:192.168.213.134 mini3:192.168.213.135

Hive-0.13.1本地獨立模式安裝 元資料儲存到MariaDB-10.1.0 Hadoop-2.4.0

tar -zxvf apache-hive-0.13.1-bin.tar.gz 解壓後,編輯java.sh(java.sh為自己建立的指令碼): vim /etc/profile.d/java.sh export HIVE_HOME=/opt/modules/hive/apache-hive-0.13.1

Linux上安裝wildfly-10.1.0.Final並部署iServer9D war包

一、安裝環境 硬體要求 Linux 系統上安裝 SuperMap iServer 產品的最低硬體要求包括: 處理器:800 MHz 主頻 記憶體:1 GB 硬碟:20 GB 網路介面卡:系統安裝有網路介面卡 顯示介面卡:64 M 視訊記憶體

SBT 1.0.3安裝與配置

-m export home 添加 pre ref images ima com 下載SBT 解壓並且移動到/software目錄 tar -zxvf sbt-1.0.3.tgz mv sbt /software/sbt 在/etc/profile文件中添加: export

tengine-2.1.0安裝編譯過程

目錄 1 先上傳壓縮包 2 解壓縮 tar -xf不看過程,tar -zxvf有詳細過程 3 檢視安裝步驟 3.1 cd tengine-2.1.0進入解壓後的資料夾 3.2  ls 發現README.txt檔案 3.3 vi README 4 按照上

Hive 2.1.0叢集安裝

Hive 2.1.0叢集安裝 1.配置伺服器 1個主節點:master(192.168.20.191),2個(從)子節點, node1(192.168.20.192), node2(192.168.20.193) 2.將jdbc的jar包放到$HIVE_HOME下 cd

sysbench-1.0原始碼安裝

文章目錄 sysbench-1.0原始碼安裝 一、下載原始碼 二、原始碼編譯 sysbench-1.0原始碼安裝 一、下載原始碼 wget https://codeload.github.com/akopyt

kafka_0.10.1.0監控及管理

1. kafka監控 kafka自身沒有監控管理頁面,無論是進行一些管理操作還是狀態的監控都要命令加一大堆記不住的引數,實在是很不方便,不過好在在github上開源了一些工具,在kafka的生態系統中也有提及到: Kafka Manager: 都是以表格的形式展現資料,比

Julia Pro 1.0 下載安裝教程

千呼萬喚的Julia Pro 1.0可以下載安裝了. JuliaPro版本相當於Anconda 之於 Python, Julia Pro有很多模組, 對於一些常規的模組都有包含, 不用手動下載, 更加方便. 所以我一直等到Julia Pro下線, 才將0.6版本

cross_entropy = -tf.reduce_mean( y_* tf.log(tf.clip_by_value(y,1e-10,1.0)))#交叉熵含義

轉載:https://blog.csdn.net/weixin_38195506/article/details/75302445 神經網路模型的效果以及優化目標是通過損失函式(loss function)來定義的。分類問題和迴歸問題有很多經典的損失函式。  分類問題和迴歸問題是監督學

kafka_0.10.1.0叢集部署

1. 背景簡介 Kafka是一個分散式流平臺,原本開發自LinkedIn,之後成為Apache專案的一部分,用於構建實時資料管道和流媒體應用,水平擴充套件、容錯,很多公司都在生產環境中使用:LinkedIn,Yahoo,Twitter,Uber,Oracle

初識python爬蟲 Python網路資料採集1.0 BeautifulSoup安裝測試

*文章說明這個學習資料是Ryan Mitchel的著作<Web Scraping with Python: Collecting Data from the Modern Web>我算是一步一步跟著一起去學習。分享自及遇到的問題。總結*環境說明我使用的是pytho

Storm1.1.0 版本安裝過程總結

首先還是要自我檢討一下,最近太懶了,關於Storm的書雖然看了不少,可是時間久了,加之沒有機會實戰,很多知識都忘記了。以至於現在回想起來,很多都猶如新知識,不禁身出冷汗,作為一個技術狗,這樣怎可了得,故此這周開始再厲學習,咱們的老祖宗,朱熹(宋)說得好啊“學習知之愈明,則行

butterknife 10.1.0 原始碼分析

開發十年,就只剩下這套架構體系了! >>>   

Oracle 10g 10.2.0.1 在Oracle Linux 5.4 32Bit RAC安裝手冊(一抹曦陽)

oracl track microsoft sun msu ica http net ref Oracle 10g 10.2.0.1 在Oracle Linux 5.4 32Bit RAC安裝手冊(一抹曦陽).pdf下載地址 ,step by step

續:糾正:ubuntu【7.04】可以安裝,而且完美的安裝 ! for《Oracle-10.2.0.1,打補丁10.2.0.5:在 debian 版本4【不含4】以上,及 ubuntu 7.04【不含7.04】以上都可以安裝!》

etc ubun oracl poweroff ++ ldconfig red aio edi n次的測試後,最終證明,如下做法,可以完美安裝。 中間都不帶任何一個錯誤的!!!完美! dhclient vi /etc/profile ll cd /e

Kubernetes 1.10.0離線安裝

mkfs.ext4 _for amd64 fir fdisk -l chown 部分 strong get 講述如何通過離線的方式安裝Kubernetes,主要用於對Kubernetes的研究學習,不建議在生產環境使用,安裝包獲取地址: 鏈接:https://

Kafka:ZK+Kafka+Spark Streaming集群環境搭建(九)安裝kafka_2.11-1.1.0

itl CA blog tor line cat pre PE atan 如何搭建配置centos虛擬機請參考《Kafka:ZK+Kafka+Spark Streaming集群環境搭建(一)VMW安裝四臺CentOS,並實現本機與它們能交互,虛擬機內部實現可以上網。》 如