RHEL7.0下安裝Storm1.2.1叢集
1.基本資訊(軟硬體環境)
版本 | storm1.2.1 |
---|---|
安裝機器 | 三臺機器 ( big-data01 IP:192.168.200.121) ( big-data02 IP:192.168.200.122) ( big-data03 IP:192.168.200.123) |
賬號 | hadoop |
源路徑 | /opt/software/apache-storm-1.2.1.tar.gz |
目標路徑 | /opt/storm -> /opt/storm/apache-storm-1.2.1/ |
依賴關係 | 無 |
2.安裝過程
1).使用root賬號解壓:
[[email protected] cd /opt/storm [[email protected] storm]# tar -zxvf apache-storm-1.2.1.tar.gz[[email protected] storm]# mkdir /opt/storm/local |
2).修改環境變數,並使其生效:
vim /etc/profile 新增下面的內容: export STORM_HOME=/opt/storm export PATH=$PATH:$STORM_HOME/bin 使環境變數生效: [[email protected] storm]# source /etc/profile |
3).修改配置檔案storm.yaml,在檔案中增加以下內容,IP地址改為自己的地址
[[email protected] storm]# cd /opt/storm/apache-storm-1.2.1 [ [email protected] storm]# vim conf/storm.yaml storm.zookeeper.servers: - "192.168.200.121" - "192.168.200.122" - "192.168.200.123" storm.local.dir: "/opt/storm/local" nimbus.host: "192.168.200.121" ui.port: 10088 supervisor.slots.ports: - 6700 - 6701 - 6702 - 6703 |
注意:注意空格的格式問題,很容易出現空格的格式問題,其次6700以及下面的這些與左端是一個tab鍵的距離。
4).通過scp複製其他兩臺機器上,並按照第2步修改環境變數。(前面是推存懶一些的方法,如果自己想多練習一下Linux命令,熟悉字裝過程,在另外兩臺機器上重複以上3步即可。)
[ [email protected] storm]# scp -r /opt/apache-storm-${version} hadoop @bgs -5p174-wangwenting:/opt [ [email protected] storm]# ln -s /opt/apache-storm-${version}/ /opt/storm [ [email protected] storm]# scp -r /opt/hadoop/apache-storm-${version} hadoop @bgs -5p175-wangwenting software:/opt/hadoop [ [email protected] storm]# ln -s /opt/hadoop/apache-storm-${version}/ /opt/hadoop/storm |
5).在192.168.200.121主服器上啟動storm叢集:
[ [email protected] bin]$ nohup ./storm nimbus & [ [email protected] bin]$ nohup ./storm ui & |
b.再在192.168.200.122,192.168.200.123機器上啟動supervisor
[ [email protected] bin]$ nohup ./storm supervisor & |
[ [email protected] bin]$ nohup ./storm supervisor & |
6).測試網址:
檢視一下另外兩臺伺服器(bigdata-02,bigdata-03)是否在節點上
若能正常訪問,恭喜你!!說明啟動成功 !
相關推薦
RHEL7.0下安裝Storm1.2.1叢集
1.基本資訊(軟硬體環境)版本storm1.2.1安裝機器三臺機器 ( big-data01 IP:192.168.200.121) ( big-data02 IP:192.168.200.122)
CentOS下安裝phantomjs-2.1.1-linux-x86_64.tar.bz2
1、檢視linux系統位數,來判斷下載適配的PhantomJS; 輸入命令:# lsb_release -a 2、下載PhantomJS; 從官網http://phantomjs.org/download.html下載linux64位的安裝包即&
Linux下安裝Solr7.2.1以及配置Solr(CentOS7)
安裝Solr 1、下載Solr 2、上傳solr的安裝包 solr-7.2.1.tgz 3、解壓縮solr安裝包 tar -xvf solr-7.2.1.tgz -C /usr/local/ 4、進入solr解壓目錄,修改目錄名稱 c
Ubuntu下安裝mariaDB 10.1 叢集
【環境】 Ubuntu 14.04 MariaDB 10.1 stable 【機器】 host-1: 10.0.5.11 host-2: 10.0.5.12 host-3: 10.0.5.13 sudo apt-get install so
32和64位的CentOS 6.0下 安裝 Mono 2.10.8 和Jexus 5.0
正常 nginx ng- 錯誤 保存 模塊 永久 www 要點 轉載:http://www.cnblogs.com/shanyou/archive/2012/01/07/2315982.html CentOS是一個基於RHEL的Linux發行版,其目的是為了提供
【翻譯自mos文章】在RHEL7/OL7上安裝Oracle 12.1.0.2的伺服器端或者客戶端時,報需要"compat-libstdc++"包
在RHEL7/OL7上安裝Oracle 12.1.0.2的伺服器端或者客戶端時,報需要"compat-libstdc++"包 來源於: Installation of 12.1.0.2 Oracle Database Server/Client on RHEL 7/OEL7
Ubuntu16.04.3 下安裝Qt5.9.1 OpenCV3.2.0 (包括OpenCV_contrib)完美版
1.安裝Qt5.9.1 Qt官網址:https://download.qt.io/official_releases/qt/ 根據自己的需要選擇版本,這裡我選擇的是qt-opensource-linux-x64-5.9.1.run下載之後通過ctrl+alt
在RedHat9.0下安裝Subversion 1.4.2
使用了多年的CVS,苦來酸甜都嚐遍。一直垂涎subversion,卻沒有機會。而今機緣巧合得以在部門內推廣subversion, 不亦悅乎。因部門開發需要使用RedHat9.0,伺服器一直使用這個版本的linux沒有升級。9.0自帶的subversion版本太低(0.17.1
hadoop window下安裝 hadoop-2.6.0
all art ice dfs- win 技術 per atan 分享圖片 一、官網下載hadoop http://hadoop.apache.orghttps://archive.apache.org/dist/hadoop/common/hadoop-2.6.0 管理員
Centos7安裝weblogic12.2.1.3.0(開發環境)
控制 con pen ole uri his 3.0 rtu scripting 下載安裝包 fmw_12.2.1.3.0_wls_quick_Disk1_1of1.zip 創建用戶組及用戶 groupadd weblogic useradd -g weblogic w
Centos7安裝weblogic12.2.1.3.0(生產環境)
The emp engine 壓縮包 12c -i 1.0 Inventor setting 下載壓縮包 fmw_12.2.1.3.0_wls_Disk1_1of1.zip 創建用戶組及用戶 groupadd weblogic useradd -g weblogic01
redis3.2.1叢集介紹及在Linux作業系統上安裝
一、redis叢集介紹點選開啟連結 Redis3.0版本之後支援Cluster. 二、redis叢集安裝 準備工作: 1. 安裝兩臺虛擬機器,模擬6個節點,一臺機器3個節點,創建出3 master、3 salve 環境。 &nbs
Ubuntu16.04下安裝OpenCV3.2.0
opencv基本上是搞CV必備套件之一了,支援的語言也非常多,但是安裝起來有點麻煩(如果是在conda下安裝的話則可以用conda install -c menpo opencv3=3.2.0)。需要注意的是,pip可以安裝的opencv-python安裝並不依賴open
Ubuntu16.04下安裝opencv3.2.0-python3
搭建環境:Ubuntu16.04 CUDA8.0 Cudnn5.1 python3.5.0 1.在home下新建資料夾 mkdir opencv3.2 cd opencv3.2 2.將下載好的opencv3.2.0拷貝到該資料夾內 cd opencv-3.2.
Ubuntu16.04下安裝OpenCV3.2.0(cpu)
1.安裝官方給的opencv依賴包 $ sudo apt-get install build-essential $ sudo apt-get install cmake git libgtk2.0-dev pkg-config libavcodec-dev libav
Spark修煉之道(進階篇)——Spark入門到精通:第十五節 Kafka 0.8.2.1 叢集搭建
作者:周志湖 微訊號:zhouzhihubeyond 本節為下一節Kafka與Spark Streaming做鋪墊 主要內容 1.kafka 叢集搭建 1. kafka 叢集搭建 kafka 安裝與配置 tar -zxvf kafka_2
centos 6.5下,安裝git2.2.1
一、 解除安裝老版本git1.7.1 yum remove git 二、 安裝編譯git原始碼所需要的工具 yum install curl-devel expat-devel gettext-devel openssl-devel zlib-devel asciidocy
不安裝msyql的情況下為php7.2.1安裝mysqli擴充套件
環境為新的阿里雲ECS雲主機,沒有事先編譯安裝mysql,也沒有事先yum安裝mysql。 在編譯安裝php7.2.1完成後,發現mysqli擴充套件沒有安裝。 解決辦法為進入到php7.2.1原始碼包( 實際路徑可能不同): cd /mnt/soft/php-7.2.1/ext
ubuntu14.04 下安裝 glib-2.44.1 的過程記錄
安裝glib-2.44.1 先說清楚,這是一篇糾結文,正確答案請看這裡 糾結開始了: 要用到autoconf生成配置指令碼 先使用apt-get install autoconf安裝autoconf,這個稍微有點慢。 然後在glib-master目錄下執行 autoco
win10下安裝Pytorch (CUDA9.1+CUDNN7.0)
一、CUDA下載地址,直接搜尋便可找到我下載的是9.1版本的安裝步驟:(1)點選cuda_9.1.85_win10.exe安裝(2)按順序同意就好(3)完成 得到如下兩個圖示(4)官網下載時還有以下三個patch,反正我又順次點開安裝了一遍,沒仔細看是做什麼的(5)變數配置(