1. 程式人生 > >RHEL7.0下安裝Storm1.2.1叢集

RHEL7.0下安裝Storm1.2.1叢集

1.基本資訊(軟硬體環境)
版本storm1.2.1
安裝機器三臺機器  ( big-data01    IP:192.168.200.121)
                  ( big-data02    IP:192.168.200.122)
                  ( big-data03    IP:192.168.200.123)
賬號hadoop
源路徑/opt/software/apache-storm-1.2.1.tar.gz
目標路徑/opt/storm -> /opt/storm/apache-storm-1.2.1/
依賴關係
2.安裝過程

1).使用root賬號解壓:

[[email protected]
storm]#
cd /opt/storm[[email protected] storm]# tar -zxvf apache-storm-1.2.1.tar.gz[[email protected] storm]# mkdir /opt/storm/local

2).修改環境變數,並使其生效:

vim /etc/profile新增下面的內容:export STORM_HOME=/opt/stormexport PATH=$PATH:$STORM_HOME/bin使環境變數生效:[[email protected] storm]# source /etc/profile

3).修改配置檔案storm.yaml,在檔案中增加以下內容,IP地址改為自己的地址

[[email protected] storm]# cd /opt/storm/apache-storm-1.2.1[[email protected] storm]# vim conf/storm.yamlstorm.zookeeper.servers:"192.168.200.121""192.168.200.122""192.168.200.123"storm.local.dir: "/opt/storm/local"nimbus.host: "192.168.200.121"ui.port: 10088supervisor.slots.ports:6700670167026703

注意:注意空格的格式問題,很容易出現空格的格式問題,其次6700以及下面的這些與左端是一個tab鍵的距離。

4).通過scp複製其他兩臺機器上,並按照第2步修改環境變數。(前面是推存懶一些的方法,如果自己想多練習一下Linux命令,熟悉字裝過程,在另外兩臺機器上重複以上3步即可。)

[[email protected] storm]# scp -r /opt/apache-storm-${version} hadoop@bgs-5p174-wangwenting:/opt[[email protected] storm]# ln -s /opt/apache-storm-${version}/ /opt/storm[[email protected] storm]# scp -r /opt/hadoop/apache-storm-${version} hadoop@bgs-5p175-wangwenting software:/opt/hadoop[[email protected] storm]# ln -s /opt/hadoop/apache-storm-${version}/ /opt/hadoop/storm

5).在192.168.200.121主服器上啟動storm叢集:

[[email protected] storm]# cd /opt/storm/apache-storm-1.2.1/bin[[email protected] bin]$ nohup ./storm nimbus &[[email protected] bin]$ nohup ./storm ui &
b.再在192.168.200.122,192.168.200.123機器上啟動supervisor
[[email protected] bin]$ nohup ./storm supervisor &
[[email protected] bin]$ nohup ./storm supervisor &

6).測試網址:


 檢視一下另外兩臺伺服器(bigdata-02,bigdata-03)是否在節點上


若能正常訪問,恭喜你!!說明啟動成功 !

相關推薦

RHEL7.0安裝Storm1.2.1叢集

1.基本資訊(軟硬體環境)版本storm1.2.1安裝機器三臺機器  ( big-data01    IP:192.168.200.121)                  ( big-data02    IP:192.168.200.122)               

CentOS安裝phantomjs-2.1.1-linux-x86_64.tar.bz2

1、檢視linux系統位數,來判斷下載適配的PhantomJS;   輸入命令:# lsb_release -a   2、下載PhantomJS;   從官網http://phantomjs.org/download.html下載linux64位的安裝包即&

Linux安裝Solr7.2.1以及配置Solr(CentOS7)

安裝Solr 1、下載Solr 2、上傳solr的安裝包     solr-7.2.1.tgz 3、解壓縮solr安裝包     tar -xvf solr-7.2.1.tgz -C /usr/local/ 4、進入solr解壓目錄,修改目錄名稱     c

Ubuntu安裝mariaDB 10.1 叢集

【環境】 Ubuntu 14.04 MariaDB 10.1 stable 【機器】 host-1: 10.0.5.11 host-2: 10.0.5.12 host-3: 10.0.5.13 sudo apt-get install so

32和64位的CentOS 6.0 安裝 Mono 2.10.8 和Jexus 5.0

正常 nginx ng- 錯誤 保存 模塊 永久 www 要點 轉載:http://www.cnblogs.com/shanyou/archive/2012/01/07/2315982.html CentOS是一個基於RHEL的Linux發行版,其目的是為了提供

【翻譯自mos文章】在RHEL7/OL7上安裝Oracle 12.1.0.2的伺服器端或者客戶端時,報需要"compat-libstdc++"包

在RHEL7/OL7上安裝Oracle 12.1.0.2的伺服器端或者客戶端時,報需要"compat-libstdc++"包 來源於: Installation of 12.1.0.2 Oracle Database Server/Client on RHEL 7/OEL7

Ubuntu16.04.3 安裝Qt5.9.1 OpenCV3.2.0 (包括OpenCV_contrib)完美版

1.安裝Qt5.9.1 Qt官網址:https://download.qt.io/official_releases/qt/ 根據自己的需要選擇版本,這裡我選擇的是qt-opensource-linux-x64-5.9.1.run下載之後通過ctrl+alt

在RedHat9.0安裝Subversion 1.4.2

使用了多年的CVS,苦來酸甜都嚐遍。一直垂涎subversion,卻沒有機會。而今機緣巧合得以在部門內推廣subversion, 不亦悅乎。因部門開發需要使用RedHat9.0,伺服器一直使用這個版本的linux沒有升級。9.0自帶的subversion版本太低(0.17.1

hadoop window安裝 hadoop-2.6.0

all art ice dfs- win 技術 per atan 分享圖片 一、官網下載hadoop http://hadoop.apache.orghttps://archive.apache.org/dist/hadoop/common/hadoop-2.6.0 管理員

Centos7安裝weblogic12.2.1.3.0(開發環境)

控制 con pen ole uri his 3.0 rtu scripting 下載安裝包 fmw_12.2.1.3.0_wls_quick_Disk1_1of1.zip 創建用戶組及用戶 groupadd weblogic useradd -g weblogic w

Centos7安裝weblogic12.2.1.3.0(生產環境)

The emp engine 壓縮包 12c -i 1.0 Inventor setting 下載壓縮包 fmw_12.2.1.3.0_wls_Disk1_1of1.zip 創建用戶組及用戶 groupadd weblogic useradd -g weblogic01

redis3.2.1叢集介紹及在Linux作業系統上安裝

一、redis叢集介紹點選開啟連結 Redis3.0版本之後支援Cluster. 二、redis叢集安裝 準備工作:       1. 安裝兩臺虛擬機器,模擬6個節點,一臺機器3個節點,創建出3 master、3 salve 環境。 &nbs

Ubuntu16.04安裝OpenCV3.2.0

opencv基本上是搞CV必備套件之一了,支援的語言也非常多,但是安裝起來有點麻煩(如果是在conda下安裝的話則可以用conda install -c menpo opencv3=3.2.0)。需要注意的是,pip可以安裝的opencv-python安裝並不依賴open

Ubuntu16.04安裝opencv3.2.0-python3

搭建環境:Ubuntu16.04 CUDA8.0  Cudnn5.1  python3.5.0 1.在home下新建資料夾 mkdir opencv3.2 cd opencv3.2 2.將下載好的opencv3.2.0拷貝到該資料夾內 cd opencv-3.2.

Ubuntu16.04安裝OpenCV3.2.0(cpu)

1.安裝官方給的opencv依賴包 $ sudo apt-get install build-essential $ sudo apt-get install cmake git libgtk2.0-dev pkg-config libavcodec-dev libav

Spark修煉之道(進階篇)——Spark入門到精通:第十五節 Kafka 0.8.2.1 叢集搭建

作者:周志湖 微訊號:zhouzhihubeyond 本節為下一節Kafka與Spark Streaming做鋪墊 主要內容 1.kafka 叢集搭建 1. kafka 叢集搭建 kafka 安裝與配置 tar -zxvf kafka_2

centos 6.5安裝git2.2.1

一、 解除安裝老版本git1.7.1 yum remove git 二、 安裝編譯git原始碼所需要的工具 yum install curl-devel expat-devel gettext-devel openssl-devel zlib-devel asciidocy

安裝msyql的情況為php7.2.1安裝mysqli擴充套件

環境為新的阿里雲ECS雲主機,沒有事先編譯安裝mysql,也沒有事先yum安裝mysql。 在編譯安裝php7.2.1完成後,發現mysqli擴充套件沒有安裝。 解決辦法為進入到php7.2.1原始碼包( 實際路徑可能不同): cd /mnt/soft/php-7.2.1/ext

ubuntu14.04 安裝 glib-2.44.1 的過程記錄

安裝glib-2.44.1 先說清楚,這是一篇糾結文,正確答案請看這裡 糾結開始了: 要用到autoconf生成配置指令碼 先使用apt-get install autoconf安裝autoconf,這個稍微有點慢。  然後在glib-master目錄下執行 autoco

win10安裝Pytorch (CUDA9.1+CUDNN7.0)

一、CUDA下載地址,直接搜尋便可找到我下載的是9.1版本的安裝步驟:(1)點選cuda_9.1.85_win10.exe安裝(2)按順序同意就好(3)完成 得到如下兩個圖示(4)官網下載時還有以下三個patch,反正我又順次點開安裝了一遍,沒仔細看是做什麼的(5)變數配置(