1. 程式人生 > >Hadoop完全分布式配置

Hadoop完全分布式配置

hadoop 完全分布式

 
一、首先說一下,Hadoop有三種運行模式。
第一個是獨立(或本地)運行模式:無需運行任何守護進程,所有程序都在一個同一個JVM上執行。
第二個是偽分布模式:Hadoop守護進程運行在本地機器上,模擬一個小規模的集群。
第三個是全分布模式,也就是通常所說的完全分布式模式:Hadoop守護進程運行在一個集群上。
 
 
下面簡單介紹下完全分布式的配置:
 
首先準備三臺機器,系統公共配置部分:
 
系統信息:
[[email protected] ~]# cat /etc/redhat-release
CentOS release 6.7 (Final)
[[email protected]
/* */ ~]$ uname -r 2.6.32-573.el6.x86_64 [[email protected] ~]# uname -m x86_64 公共操作用戶:centos centos用戶在/etc/sudoers中的公共配置: [[email protected] ~]# grep centos /etc/sudoers centos ALL=(ALL) NOPASSWD: ALL 環境變量如下: [[email protected] ~]# tail -16 /etc/profile #java JAVA_HOME=/home/centos/download/jdk PATH=$JAVA_HOME/bin:$PATH CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar export JAVA_HOME export CLASSPATH #hadoop HADOOP_HOME=/home/centos/download/hadoop PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin export PATH 主機IP域名映射如下: [[email protected]
/* */ ~]# cat /etc/hosts 10.0.0.101 hadoop1 10.0.0.102 hadoop2 10.0.0.103 hadoop3 主節點IP為: [[email protected] ~]# ifconfig | awk -F ‘[ :]+‘ ‘NR==2{print $4}‘ 10.0.0.101 從節點IP分別為: [[email protected] ~]# ifconfig | awk -F ‘[ :]+‘ ‘NR==2{print $4}‘ 10.0.0.102 [[email protected] ~]# ifconfig | awk -F ‘[ :]+‘ ‘NR==2{print $4}‘ 10.0.0.103 Java版本 [[email protected]
/* */ ~]# java -version java version "1.8.0_65" Java(TM) SE Runtime Environment (build1.8.0_65-b17) Java HotSpot(TM) 64-Bit Server VM (build25.65-b01, mixed mode) Hadoop版本 [[email protected] ~]# hadoop version Hadoop 2.7.3 Subversionhttps://git-wip-us.apache.org/repos/asf/hadoop.git -r baa91f7c6bc9cb92be5982de4719c1c8af91ccff Compiled by root on 2016-08-18T01:41Z Compiled with protoc 2.5.0 From source with checksum2e4ce5f957ea4db193bce3734ff29ff4 This command was run using/home/centos/download/hadoop-2.7.3/share/hadoop/common/hadoop-common-2.7.3.jar 二、配置ssh 首先在三臺機器上的家目錄分別執行下述生成密鑰對腳本,這樣的話,三臺機器的centos之間就可以免密碼登錄、免密碼傳輸文件等操作。 [[email protected] ~]$ ll createssh.sh -rwxr-xr-x 1 centos centos 51 May 14 11:05createssh.sh [[email protected] ~]$ cat createssh.sh #!/bin/sh ssh-keygen -t rsa -P ‘‘ -f ~/.ssh/id_rsa 然後在三臺機器上的家目錄分別執行下述分發公鑰 [[email protected] ~]$ ll fen.sh -rwxr-xr-x 1 centos centos 142 May 14 12:14fen.sh [[email protected] ~]$ cat fen.sh #!/bin/sh ssh-copy-id -i ~/.ssh/id_rsa.pub [email protected] ssh-copy-id -i ~/.ssh/id_rsa.pub [email protected] ssh-copy-id -i ~/.ssh/id_rsa.pub [email protected] #上述只是在執行的時候會輸入yes和系統用戶密碼,其他在執行的時候就不會再次輸入密碼了。執行SSH的目的是,比如在配置好完全分布式的時候,主節點會自動吊起從節點的日誌並且往裏面寫入數據,此時SSH的密鑰對就起作用了。 #經常碰到的坑,要配置三臺機器家目錄中.ssh的權限為700,而且要配置家目錄中.ssh目錄中的authorized_keys權限為644. [[email protected] ~]$ chmod 700 .ssh [[email protected] ~]$ chmod 644 .ssh/authorized_keys 三、重點的配置文件內容 #三臺機器共同配置 [[email protected] ~]$ grep JAVA_HOME download/hadoop/etc/hadoop/hadoop-env.sh # The only required environment variable isJAVA_HOME. All others are # set JAVA_HOME in this file, so that it iscorrectly defined on export JAVA_HOME=/home/centos/download/jdk #JAVA環境變量要在這再配置一下 [[email protected] ~]$ cat download/hadoop/etc/hadoop/core-site.xml <?xml version="1.0"?> <configuration> <property> <name>fs.defaultFS</name> <value>hdfs://hadoop1</value> </property> </configuration> [[email protected] ~]$ cat download/hadoop/etc/hadoop/hdfs-site.xml <?xml version="1.0"?> <configuration> <property> <name>dfs.replication</name> <value>2</value>#副本數,對應從節點數 </property> </configuration> [[email protected] ~]$ cat download/hadoop/etc/hadoop/mapred-site.xml <?xml version="1.0"?> <configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration> [[email protected] ~]$ cat download/hadoop/etc/hadoop/yarn-site.xml <?xml version="1.0"?> <configuration> <property> <name>yarn.resourcemanager.hostname</name> <value>hadoop1</value> </property> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> </configuration> #註意這裏只配置從節點的域名 [[email protected] ~]$ cat download/hadoop/etc/hadoop/slaves hadoop2 hadoop3 四、啟動hadoop #下述命令只在主節點hadoop1中執行! #首先執行格式化命令 [[email protected] ~]$ hadoop namenode -format #然後啟動hadoop [[email protected] ~]$ start-all.sh #查看啟動進程 #主節點執行,名稱節點只會存在於主節點中,包括文件名稱等內容。 [[email protected] ~]$ jps 2736 SecondaryNameNode 2961 Jps 2889 ResourceManager 2539 NameNode #從節點執行,數據節點只會存在於從節點,是真正存放數據的地方。 [[email protected] ~]$ jps 2322 NodeManager 2234 DataNode 2380 Jps [[email protected] ~]$ jps 2481 DataNode 2646 Jps 2569 NodeManager #臨時文件都生成在了根目錄下的/tmp目錄下 [[email protected] ~]$ ll /tmp/ total 32 drwxrwxr-x 3 centos centos 4096 May 1414:05 hadoop-centos -rw-rw-r-- 1 centos centos 5 May 14 14:06 hadoop-centos-namenode.pid -rw-rw-r-- 1 centos centos 5 May 14 14:06hadoop-centos-secondarynamenode.pid drwxr-xr-x 2 centos centos 4096 May 1414:06 hsperfdata_centos drwxrwxr-x 3 centos centos 4096 May 1414:06 Jetty_0_0_0_0_50070_hdfs____w2cu08 drwxrwxr-x 3 centos centos 4096 May 1414:06 Jetty_0_0_0_0_50090_secondary____y6aanv drwxrwxr-x 4 centos centos 4096 May 1414:06 Jetty_hadoop1_8088_cluster____.jtly5k -rw-rw-r-- 1 centos centos 5 May 14 14:06yarn-centos-resourcemanager.pid

Hadoop完全分布式配置

相關推薦

Hadoop完全配置

hadoop 完全分布式 一、首先說一下,Hadoop有三種運行模式。 第一個是獨立(或本地)運行模式:無需運行任何守護進程,所有程序都在一個同一個JVM上執行。 第二個是偽分布模式:Hadoop守護進程運行在本地機器上,模擬一個小規模的集群。 第三個是全分布模式,也就是通常所說的完全分布式模式:

Hadoop完全安裝配置完整過程

其他 ins $path serve 建立 工作 isp IT 完成後 一. 硬件、軟件準備 1. 硬件設備 為了方便學習Hadoop,我采用了雲服務器來配置Hadoop集群。集群使用三個節點,一個阿裏雲節點、一個騰訊雲節點、一個華為雲節點,其中阿裏雲和騰訊雲都是通過使用

3-3 Hadoop集群完全配置部署

連接 repl lis pts 創建目錄 啟動 ant window 主機 Hadoop集群完全分布式配置部署 下面的部署步驟,除非說明是在哪個服務器上操作,否則默認為在所有服務器上都要操作。為了方便,使用root用戶。 1.準備工作 1.1 ce

hadoop完全的搭建的理解

hadoop完全分布式的搭建的理解hadoop完全分布式的搭建思路?jdk必須安裝,所有機器都是一樣的。環境變量是PATH,但是在配置PATH的時候,一定要加上.;這是系統原來的環境變量,如果不加這個,可能再次開不出機器。Hadoop安裝,可以放在yarn,也可以不放在yarn,環境變量HADOOP_HOME

Hadoop完全環境搭建

操作 主目錄 可用 8.0 www map 是否 devel ice 前言 本文搭建了一個由三節點(master、slave1、slave2)構成的Hadoop完全分布式集群(區別單節點偽分布式集群),並通過Hadoop分布式計算的一個示例測試集群的正確性。 本文集群三

Hadoop配置

default 比較 rar temporary conf 完成後 運行 name dfs- Hadoop 可以在單節點上以偽分布式的方式運行,Hadoop 進程以分離的 Java 進程來運行,節點既作為 NameNode 也作為 DataNode,同時,讀取的是 HDFS

hadoop完全部署

hadoop部署 hadoop完全分布式部署 一、概述 概念: 是一個可靠的、可伸縮的、分布式計算的開源軟件。是一個框架,允許跨越計算機集群的大數據及分布式處理,使用簡單的編程模型(mapreduce)可從單臺服務器擴展至幾千臺主機,每個節點提供了計算和存儲功能。不依賴於硬件處理HA,在應用層面實現

hadoop完全搭建

spa 方便 color dfs 配置 啟動 ava 基礎環境 密碼登錄 Overview:過程有很多帖子都解釋了如何搭建,本文主要列舉需要做的事情,然後在文末提供一個非常詳細的搭建教程,方便大家使用。 我這裏是使用了3臺服務器搭建分布式平臺,每臺機子都需要配置java的開

hadoop完全安裝

命令 roo shu efault -h 圖片 oop work rsa   環境介紹 服務器軟件版本 操作系統 CentOS 6.5 x86_64 Java 1.7.0_79 hadoop 2.6.1 hadoop各個節點集群架構 主機名 i

hadoop_完全配置

cati 日誌文件 host 生成 ins ifcfg for 目錄 sla 註:此文章所寫內容完全在虛擬機配置,系統:centos,jdk和hadoop已經安裝完成所配集群包括hadoop01,hadoop02,hadoop03,hadoop04四臺,ip分別為:192.

ubantu 16.4 Hadoop 完全搭建

whoami none chm ssh rip args 查看進程 exit dst 一個虛擬機   1.以 NAT網卡模式 裝載虛擬機   2.最好將幾個用到的虛擬機修改主機名,靜態IP /etc/network/interface,這裏 是 s101

Hadoop 完全部署

roo pda adding value 時間同步 解壓 pre module ive 完全分布式部署Hadoop 分析: 1)準備3臺客戶機(關閉防火墻、靜態ip、主機名稱) 2)安裝jdk 3)配置環境變量

Hadoop 2.7.3 完全部署

sbin oot oop .com body acl border tool user 本次測試環境如下 IP host JDK linux hadop role 172.16.101.55 sht-sgmhadoopnn-01 1.8.0_111

Hadoop集群環境配置

work red hat 新增 相關信息 配置過程 cor 成了 大數據集 service Hadoop是一個由Apache基金會所開發的分布式系統基礎架構。 用戶可以在不了解分布式底層細節的情況下,開發分布式程序。充分利用集群的威力進行高速運算和存儲。 Hadoop實現

集群搭建(三)Hadoop搭建HDFS(完全

意思 cati 臨時 等於 style www 比較 環境變量 AD Hadoop集群搭建(完全分布式) 前期準備(4臺linux服務器),具體搭建過程可以參考https://www.cnblogs.com/monco/p/9046614.html(克隆虛擬機比較方便)

Hadoop生態圈-Kafka的完全部署

灰色 file c4c lec complete AC ade ring 裝包                 Hadoop生態圈-Kafka的完全分布式部署                                       作者:尹正傑 版權聲明:原創作品,謝絕

(學習筆記版)Hadoop入門(一):Hadoop2.7.3完全集群安裝

min property per cal mon 分別是 master 修改 node 在這裏寫下安裝hadoop2.7.3版本的完全分布式的過程,因為剛開始學習hadoop不久,希望自己把學習的東西記錄下來,和大家一起分享,可能有錯誤的地方,還請大牛們批評指正,在我學習的

hadoop0.20.2完全安裝配置

passwd secondary ron set sha2 org id_rsa mir tool 三臺服務器分別配置IP為:192.168.11.131192.168.11.132192.168.11.133分別配置主機名master:# hostnamectl set-

Hadoop及Zookeeper+HBase完全集群部署

ng- 根據 標識 部署 mina 軟件包 大小 apache enable Hadoop及HBase集群部署 一、 集群環境 系統版本 虛擬機:內存 16G CPU 雙核心 系統: CentOS-7 64位 系統下載地址: http://124.202.164.6/f

Hadoop-2.7.5完全搭建

start export file image 相關配置 war ava -s 網絡 1、在虛擬機上安裝Hadoop完全分布式準備工作 1)這裏使用的是VMWare軟件,在VMWare上安裝一個CentOS6.5,並再克隆兩個機器配置相關MAC地址,以及配置機器名