1. 程式人生 > >Linux mint偽分散式安裝hadoop3.0.0

Linux mint偽分散式安裝hadoop3.0.0

首先安裝jdk,
我這裡使用的是linux mint,自帶圖形化介面,下載好linux版的jdk8-161後,放到/development/目錄下,進行解壓

# 將jdk8u_161改名成jdk
~ mv jdk8u_161 jdk
# 解壓jdk壓縮包
~ tar -zxvf jdk
  1. 編輯Java環境變數:
~ vim /etc/profile
# 在profile檔案最後加入下面程式碼
export JAVA_HOME=/home/hoodzwh/development/jdk
export PATH=$JAVA_HOME/bin:$PATH
export CLASSPATH=.:$JAVA_HOME
/lib/dt.jar:$JAVA_HOME/lib/tools.jar # 立即使環境變數生效 ~ source /etc/profile

配置完成之後,在命令列輸入java -version,顯示java的版本資訊則表示配置java成功,JAVA_HOME的值是你本機jdk的安裝目錄,在linux中,分隔符路徑的符號是:,linux下是區分大小寫的,所以上面的字母要注意大寫。
2. 配置ssh免密登入
進入使用者根目錄下,首先確定系統是否有ssh命令,沒有則安裝

~ apt-get install ssh
# 新建.ssh資料夾,如果有則不用建
~ mkdir .ssh
#進入.ssh資料夾,生成金鑰
~ ssh-keygen -t rsa 這個命令會在.ssh資料夾中生成id_rsa私鑰檔案、id_rsa.pub公鑰檔案。然後將id_rsa.pub中的內容加進authorized_keys檔案中。 # 如果沒有authorized_keys檔案則新建 ~ touch authorized_keys ~ cat id_rsa.pub >> authorized_keys **注意,這裡是>>,而不是>,如果是>,則會刪除id_rsa.pub中的內容。** 之後,測試ssh到本機是否需要密碼 ~ ssh localhost 如果不需要,說明ssh免密登入成功
  1. 下載hadoop3.0.0.tar.gz改名為hadoop,並解壓到開發檔案目錄下,
    編輯/etc/profile檔案,配置hadoop環境變數
# 在profile檔案最後加入以下程式碼
~ export HADOOP_HOME=/home/hoodzwh/development/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
# 生效profile檔案
~ source /etc/profile

進入到hadoop/etc/hadoop目錄下,需要配置的檔案有:
hadoop-env.sh,core-site.xml,hdfs-site.xml,mapred-site.xml,yarn-site.xml,在此之前,需要配置/etc/hosts

~ vim /etc/hosts
#在hosts檔案最後加入如下程式碼:
127.0.0.1 master
127.0.0.1 slave1
127.0.0.1 slave2
**hadoop-env.sh**
export JAVA_HOME=/home/hoodzwh/development/jdk

**core-site.xml**
 <property>
     <name>fs.defaultFS</name>
     <value>hdfs://master:9000</value>
 </property>
 <property>
    <name>hadoop.tmp.dir</name>
    <value>/home/hoodzwh/development/hadoop/tmp</value>
 </property>
 **注意:這裡hadoop.tmp.dir的value,如果用預設的容易出問題,預設的tmp路徑在每次重啟機器會刪除tmp資料夾內容,所以我自己在hadoop目錄下新建tmp資料夾存放臨時檔案**

**hdfs-site.xml**
<property>
        <name>dfs.replication</name>
        <value>1</value>
</property>
這裡是配置檔案需要儲存多少份,因為是偽分散式,我這裡不需要多餘的副本

**yarn-site.xml**
<property>
    <name>yarn.resourcemanager.hostname</name>
    <value>master</value>
</property>
<property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
</property>

**mapred-site.xml**
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
    <property>
        <name>mapreduce.admin.user.env</name>
        <value>HADOOP_MAPRED_HOME=$HADOOP_COMMON_HOME</value>
    </property>
    <property>
        <name>yarn.app.mapreduce.am.env</name>
        <value>HADOOP_MAPRED_HOME=$HADOOP_COMMON_HOME</value>
    </property>

完成之後,進入hadoop/bin目錄下,

~ ./hdfs namenode -format
進入hadoop/sbin目錄下
~ ./start-dfs.sh
~ ./start-yarn.sh
  1. 驗證hadoop叢集是否搭建成功:
    在瀏覽器輸入:http://master:8088http://master:9870看看有沒有yarn和namenode節點的資訊,如果有介面出現,說明配置成功

相關推薦

Linux mint分散式安裝hadoop3.0.0

首先安裝jdk, 我這裡使用的是linux mint,自帶圖形化介面,下載好linux版的jdk8-161後,放到/development/目錄下,進行解壓 # 將jdk8u_161改名成jdk ~ mv jdk8u_161 jdk # 解壓jdk壓縮包

Spark2.0.1分散式安裝配置

前言.Spark簡介和hadoop的區別 Spark 是一種與 Hadoop 相似的開源叢集計算環境,但是兩者之間還存在一些不同之處,Spark 啟用了記憶體分佈資料集,除了能夠提供互動式查詢外,它還可以優化迭代工作負載。 1.架構不同。 Hadoop是對

hadoop2.2.0上spark分散式安裝

1. 從官網上下下載合適的版本: http://spark.apache.org/downloads.html 筆者下載的是for hadoop2.2版本的spark0.9.2 2. 解壓,配置環境: sudo gedit /etc/profile 新增SPARK_HOM

Spark本地安裝Linux分散式搭建

title: Spark本地安裝及Linux下偽分散式搭建 date: 2018-12-01 12:34:35 tags: Spark categories: 大資料 toc: true 個人github部落格:Josonlee’s Blog 文章目錄

linux下使用yum安裝新版php7.0

1、首先要更新yum源,不然是預設的老版本,一般都在5.6及以下,但是php7都出來好久了,效能提升50%以上! 按照系統更新yum源,我的是centos7,所以我執行下面的程式碼! CentOS/RHEL 7.x: rpm -Uvh https://dl.fedora

linux中下載和安裝git2.3.0

yum -y install git 但是yum源中安裝的git版本是1.7.1,Github等需要的Git版本最低都不能低於1.7.2 。 所以我們一般不用上面的方法,而是下載git原始碼編譯安裝。

Linux中基於hadoop安裝hive(RHEL7.0+hadoop2.8.3+hive2.3.2)

2安裝          3.3測試        關鍵字:Linux  Java  CentOS  Hadoop  Hive         說明:安裝hive前提是要先安裝hadoop叢集,並且hive只需要再hadoop的namenode節點叢集裡安裝即可(需要再所有n

centos / Linux 服務環境下安裝 Redis 5.0.3

linu server image bsp 文件 .tar.gz 開放端口 sta 源碼包 原文:centos / Linux 服務環境下安裝 Redis 5.0.3 1、首先進入你要安裝的目錄 cd /usr/local 2、下載目前最新穩定版本 Redis

Linux虛擬機器上安裝jdk1.8.0

我是一名Java初級的開發工程師,很多地方都需要自己慢慢去探究和摸索。現在就在Linux系統上安裝jdk1.8.0_131這個版本為例子,詳細講解我在安裝jdk過程中的步驟和一些基本的命令,以供參考。 我是在Windows7系統上安裝了VMware Workstation

linux mint 18.2 安裝wireshark

-s sudo uri wire rep class conf comm via Method 1: Via PPA Step 1: Add the official PPA sudo add-apt-repository ppa:wireshark-dev/sta

Linux Mint 17.1 安裝全配置

做的 text -m fin installer /etc reference 安裝oracle u盤啟動盤 Linux Mint 17.1 安裝全配置 I. 前言 由於自己的本子出現了一些故障需要重新安裝系統,就上網看看今年4,5月份發布的一些新的發行版來試試。原先電腦上

如何在Linux Mint Cinnamon中安裝MATE桌面

html linux m 如何 sta 完成後 date 不想 版本 來看 如何在Linux Mint Cinnamon中安裝MATE桌面 Linux Mint有兩個版本,Cinnamon版本更漂亮,消耗資源也高,Mate版本資源需求較低,如果你安裝了Cinnamon版本,

Hadoop單機式分散式安裝詳解

Ubuntu、centos7、6叢集搭建:https://blog.csdn.net/qq_40938267/article/details/83476896 遇到的問題以及解決方法: 1.在./bin/hdfs namenode –format時 載入不出class  檢視配置的

分散式安裝Hadoop

Hadoop簡單介紹 Hadoop:適合大資料分散式儲存與計算的平臺。 Hadoop兩大核心專案: 1、HDFS:Hadoop分散式檔案系統   HDFS的架構: 主從結構:           主節點,只有一個:namenode                       1、接收

分散式安裝zookeeper

cd ..; tar -zxvf softs/zookeeper-3.4.5-cdh5.3.6.tar.gz mv zookeeper-3.4.5-cdh5.3.6 zk-pseudo-distributed rm zookeeper; ln -s zk-pseudo-distributed zook

hadoop在centos系統上的分散式安裝

建立hadoop使用者 建立hadoop使用者可以使不同使用者之間有明確的許可權區別,也可使針對hadoop的配置操作不影響其他使用者的使用。 >>su root //切換到超級系統管理員,需要輸入密碼 >>useradd -

Hodoop分散式安裝步驟

jdk安裝 解壓:tar -zxvf jdk /home/shawee/app/jdk1.8.0_181 -C ~/app 新增到系統環境變數:~/.bash_profile export JAVA

單點分散式安裝HADOOP

安裝 建立檔案儲存目錄 先切換到hadoopAdmin,然後建立資料夾儲存Hadoop的臨時檔案 $su hadoopAdmin $sudo mkdir -p /app/hadoop/tmp $sudo mkdir -p /app/hadoop/data/na

hadoop 分散式安裝

0. 關閉防火牆 重啟後失效 service iptables start ;#立即開啟防火牆,但是重啟後失效。 service iptables stop ;#立即關閉防火牆,但是重啟後失效。 重啟後生效 chkconfig iptables on ;#開啟防火牆,重啟後生效 chkconfig

CentOS7環境下分散式安裝配置hadoop

(一) 設定靜態IP地址 cd /etc/sysconfig/network-scripts vim ifcfg-ens33 修改IPADDR,NETMASK,GATEWAY為對應的值 修改BOOTPROTO為none 儲存並退出 重啟網絡卡 servi