1. 程式人生 > >spark 2.3.1叢集搭建(Master,Slave,Slave)

spark 2.3.1叢集搭建(Master,Slave,Slave)

基礎配置同上篇部落格

需要注意的配置有兩個

cd /usr/local/spark/
cp ./conf/slaves.template ./conf/slaves

#slaves檔案設定Worker節點。編輯slaves內容,把預設內容localhost替換成如下內容:

slave1
slave2

配置spark-env.sh檔案
將 spark-env.sh.template 拷貝到 spark-env.sh
cp ./conf/spark-env.sh.template ./conf/spark-env.sh

編輯spark-env.sh,新增如下內容:

export SPARK_DIST_CLASSPATH=$(/usr/local/hadoop/bin/hadoop classpath)
export HADOOP_CONF_DIR=/usr/local/hadoop/etc/hadoop
export SPARK_MASTER_IP=192.168.137.129

配置完成後啟動master:

[email protected]:/usr/local$ ./spark/sbin/start-master.sh 
starting org.apache.spark.deploy.master.Master, logging to /usr/local/spark/logs/spark-lockey-org.apache.spark.deploy.master.Master-1-master.out
[email protected]:/usr/local/spark$ jps
16371 Master
16421 Jps
15063 SecondaryNameNode
14840 NameNode
15210 ResourceManager

然後再啟動兩個slave(此命令在master上執行):

[email protected]:/usr/local$ ./spark/sbin/start-slaves.sh
slave1: starting org.apache.spark.deploy.worker.Worker, logging to /usr/local/spark/logs/spark-lockey-org.apache.spark.deploy.worker.Worker-1-slave1.out
slave2: starting org.apache.spark.deploy.worker.Worker, logging to /usr/local/spark/logs/spark-lockey-org.apache.spark.deploy.worker.Worker-1-slave2.out


[email protected]
:/usr/local$ jps 1832 Jps 1578 NodeManager 1435 DataNode 1787 Worker

然後我們來驗證以下web介面吧,master埠為8080:
這裡寫圖片描述

啟動slaves之後的介面會多出兩個Worker
這裡寫圖片描述

我們再來看一下worker的web介面:
這裡寫圖片描述

好了,到這裡我們的spark簡版叢集就搭建好了

關閉Spark叢集

關閉Master節點
sbin/stop-master.sh

關閉Worker節點
sbin/stop-slaves.sh

關閉Hadoop叢集
cd /usr/local/hadoop/
sbin/stop-all.sh

相關推薦

spark 2.3.1叢集搭建(Master,Slave,Slave)

基礎配置同上篇部落格 需要注意的配置有兩個 cd /usr/local/spark/ cp ./conf/slaves.template ./conf/slaves #slaves檔案設定Worker節點。編輯slaves內容,把預設內容localho

使用docker搭建spark(2.3.1)叢集

使用Docker快速搭建Spark叢集。 建立Spark叢集 首先在命令列下載該專案: git clone https://github.com/gettyimages/docker-spar

Centos6.8 安裝spark-2.3.1 以及 scala-2.12.2

一、Spark概述    Spark 是一個用來實現快速而通用的叢集計算的平臺。     在速度方面,Spark 擴充套件了廣泛使用的 MapReduce 計算模型,而且高效地支援更多計算模式,包括互動式查詢和流處理。 在處理大

Hadoop-2.4.1叢集搭建步驟

首先說明,博主以前也沒學過Hadoop,更別提Linux。只不過買了點資料,覺得不看也是浪費,索性找了時間學習了一下,別說,還真是吸引人。 言歸正傳,博主機器:筆記本 Y50-70 美版的 搭建環境:VM11(VMware Workstation 11),使用的是CenOS

hadoop2.8.4+spark2.3.1叢集搭建

1、安裝虛擬機器和linux系統(本文示例Ubuntu16.04 x86_64系統)(此處略過,詳見《安裝linux虛擬機器》)       為了更好使用,記得安裝virtual box的增強功能                                       

整理了maven中基於spark-2.3.1常用的依賴和外掛

<?xml version="1.0" encoding="UTF-8"?> <project xmlns="

Kafka_2.12-2.5.1叢集搭建與引數調優

Kafka是目前業界使用最廣泛的訊息佇列。資料流轉常見這樣的業務場景,客戶端把採集到的日誌推送給Kafka,業務方可以消費Kafka的資料落地HDFS,用於離線分析,也可以使用Spark或Flink消費Kafka中的資料,用於實時計算。Kafka在資料流轉過程中發揮著紐帶作用,可用於日誌採集和資料處理系統間的

Redis 3.2.1叢集搭建

一、概述     Redis3.0版本之後支援Cluster. 1.1、redis cluster的現狀    目前redis支援的cluster特性:   1):節點自動發現   2):slave->master 選舉,叢集容錯   3):Hot re

Spark修煉之道(進階篇)——Spark入門到精通:第十五節 Kafka 0.8.2.1 叢集搭建

作者:周志湖 微訊號:zhouzhihubeyond 本節為下一節Kafka與Spark Streaming做鋪墊 主要內容 1.kafka 叢集搭建 1. kafka 叢集搭建 kafka 安裝與配置 tar -zxvf kafka_2

CentOS 7搭建Spark 2.3.2叢集

一、伺服器叢集 伺服器 安裝內容 node-i scala-2.12.7; spark-2.3.2 node-ii scala-2.12.7; spark-2.3.2 node-iii scala-2.12.7; spark-2.3.2

以yarn client和分散式叢集方式執行spark-2.3.2-bin-hadoop2.6

一以分散式叢集執行 修改配置檔案/hadoop_opt/spark-2.3.2-bin-hadoop2.6/conf/spark-env.sh export HADOOP_CONF_DIR=/hadoop_opt/hadoop-2.6.1/etc/hadoop expo

kubeadm HA master(v1.12.1)叢集搭建指南(離線包 + 自動化指令碼 + ipvs + keepalived + calico + helm) For Centos/Fedora_Kubernetes中文社群

0x00 文章楔子 本文旨在通過最簡易的方式指導讀者搭建HA kubernetes 1.12.1叢集 通過部署指令碼驅動kubeadm工具進行自動化部署,自動啟動keepalived負載均衡,calico網路外掛,並且開啟kube-proxy的IPVS模式。 本文中的自動化部署指令碼可以在Le

Spark-2.3叢集安裝

1、下載 2、解壓安裝 上傳至master伺服器 解壓至/opt/目錄 $ tar -zxvf spark-2.3.0-bin-hadoop2.7.tgz -C /opt/ $ mv spark-2.3.0-bin-hadoop2.7 spark-2.3.0 3、

Spark專案之環境搭建(單機)三 scala-2.12.7+ spark-2.3.2-bin-hadoop2.7安裝

上傳scala和spark架包 解壓然後重新命名 tar -zxf scala-2.12.7.tgz mv scala-2.12.7 scala tar -zxf spark-2.3.2-bin-hadoop2.7.tgz mv spark-2.3.

codis3.2.1叢集搭建與測試

Codis是一套用go語言編寫的,為了應對高並環境下的redis叢集軟體,原理是對一個redis key操作前,先把這個key通過crc32演算法,分配到不同redis的某一個slot上,實現併發讀寫功能.而且能通過zookeeper呼叫redis-sentinel來實現故障

大資料實時計算Spark學習筆記(2)—— Spak 叢集搭建

1 Spark 叢集模式 local: spark-shell --master local,預設的 standlone 1.複製 spark 目錄到其他主機 2.配置其他主機的環境變數 3.配置 master 節點的 slaves 檔案 4.啟動 spark

Elasticsearch5.2.1叢集搭建,動態加入節點,並新增監控診斷外掛

寫在前邊的話 ES5.2.1 叢集部署參考:http://blog.csdn.net/gamer_gyt/article/details/59077189 對於叢集的監控和優化是很重要的一部分,如果想持久維護叢集,單單靠增加實體記憶體,cpu,硬碟是不夠的,必須通過一些方法來進行優化。 叢

Hadoop-2.7.1叢集環境搭建

摘自:http://blog.csdn.net/u014039577/article/details/49813531 由於日誌資料量越來越大,資料處理的邏輯越來越複雜,同時還涉及到大量日誌需要批處理,當前的flume-kafka-storm-Hbase-web這一套流程已經不能滿足當前的需求了,所以只

hadoop-2.6.0-cdh5.4.5.tar.gz(CDH)的3節點叢集搭建(含zookeeper叢集安裝)

前言 附連結如下:   http://blog.csdn.net/u010270403/article/details/51446674 關於幾個疑問和幾處心得! a.用NAT,還是橋接,還是only-host模式? b.用static的ip,還是dhcp的? 答:stat

Hadoop-3.0.0 + spark-2.3.0 +storm-1.2.1 的安裝心得

因為前段時間比賽用到spark,而實驗室叢集的spark版本還是1.6,帶來了不少麻煩,於是便想著把叢集的Hadoop和spark更新一下版本,另外,因為專案需要,再補裝個storm,一邊日後要用。說句題外話。spark,storm,Hadoop三者取首字母是SSH,這讓我想