1. 程式人生 > >spark體系結構以及詳細安裝步驟

spark體系結構以及詳細安裝步驟

1.Spark體系分為服務端和客戶端

(1)服務端分為主節點和從節點
		              1>主節點是master,相當於Resourcemanager,職責是管理和排程資源和任務、接受客戶端任務請求,部署在其他服務上(standaalong、Yarn。。。)
		              2>從節點是worker,任務是從節點的資源和任務管理者
(2)需要注意的兩點是
		                1>Spark沒有對記憶體進行管理,記憶體的管理交給應用程式管理。容易出現OOM(記憶體溢位)
		                2>Worker的預設行為:會佔用該節點上的所有資源
(3)客戶端            
                     核心:建立一個sc   SparkContext
                     啟動方式:1:spark submit
                             2: soark shell
                             3:應用程式

這裡寫圖片描述

2.詳細安裝步驟

   1.先看一下自己的hadoop版本是多少,然後官網上找到相對應的版本,如果是2.7或者大於2.7呢就選擇我圖上的那個選項


這裡寫圖片描述

2.解壓   tar -zxvf......   -C "自己的安裝目錄"

3.配置檔案:cd /usr/local/spark-2.2.1-bin-hadoop2.7/conf/

1) mv spark-env.sh.template spark-env.sh
   mv slaves.tenplate slaves
 2)  偽分散式安裝(主要用於開發測試)
    vi spark-env.sh
        export JAVA_HOME = /usr/local/jdk....
        export SPARK_MASTER_HOST=hadoop01
        export SPARK_MASTER_PORT=7077
      vi slaves 
        hadoop01
       啟動:進入到sbin下面    ./start-all.sh
     3) 全分散式安裝(主要用於生產):
           Master節點:hadoop01
           Worker節點:hadoop02,hadoop03
          配置檔案:
                vi spark-env.sh
                  export JAVA_HOME=......
                  export SPARK_MASTER_HOST=hadoop01
                  export SPARK_MASTER_PORT=7077

               vi slaves
                    hadoop02
                    hadoop03
              將配置好的spark複製到從節點上
                scp -r spark...hadoop2.7/   hadoop02:/usr/local/
                scp -r spark...hadoop2.7/    hadoop03:/usr/local/

此時就弄好了 注: http://hadoop01:8080/ 是spark 外部的監控頁面埠 7077 是master的rpc通訊介面