1. 程式人生 > >Hadoop 2.6.4 完全分散式環境搭建

Hadoop 2.6.4 完全分散式環境搭建

一、安裝linux 環境 OS Linux:CentOS 6.6 64bit 記憶體 1.5-2GB 硬碟 15-20GB 二、安裝JDK 及修改hostname 1、修改hostname  [[email protected] ~]# vi /etc/sysconfig/network NETWORKING=yes HOSTNAME=master 2、安裝JDK 配置兩個變數 $JAVA_HOME $PATH 備註:設定PATH的時候一定要記得加上$PATH:   不然linux常用命令會失效 export PATH=$PATH:$JAVA_HOME/bin 三、關閉防火牆  service iptables stop chkconfig iptables off 四、配置域名解析
vi /etc/hosts 192.168.1.100 master 192.168.1.101 slave1 192.168.1.102 slave2 192.168.1.103 slave3 測試: ping   五、安裝SSH及配置免密碼SSH登入(互信) $ ssh-keygen $ ssh-copy-id master/slave1/slave2/slave3 六 、安裝步驟 下載並解壓Hadoop Bundle 配置環境變數 配置Hadoop配置檔案 節點分發 格式化NameNode 啟動Hadoop 1、配置環境變數 vi .bash_profile export HADOOP_PREFIX="/home/hadoop/hadoop-2.6.4/" 
export PATH=$PATH:$HADOOP_PREFIX/bin  export PATH=$PATH:$HADOOP_PREFIX/sbin  export HADOOP_COMMON_HOME=${HADOOP_PREFIX}  export HADOOP_MAPRED_HOME=${HADOOP_PREFIX}  export HADOOP_HDFS_HOME=${HADOOP_PREFIX}  export YARN_HOME=${HADOOP_PREFIX} export HADOOP_COMMON_LIB_NATIVE_DIR=${HADOOP_PREFIX}/lib/native export HADOOP_OPTS="-Djava.library.path=$HADOOP_PREFIX/lib"
source ~/.bash_profile 2、配置Hadoop配置檔案 core-site.xml hdfs-site.xml mapred-site.xml yarn-site.xml hadoop-env.sh和yarn-env.sh slaves 1、core-site.xml core-site.xml檔案包含了NameNode節點的資訊以及NameNode使用的RPC埠。 <property>       <name>fs.defaultFS</name>      <value>hdfs://master:8020</value>      <final>true</final> </property> 2、hdfs-site.xml hdfs-site.xml檔案包含HDFS相關的配置資訊,包括副本系數,NameNode和DataNode儲存資料的目錄等。 <property>      <name>dfs.replication</name>      <value>1</value> </property> <property>      <name>dfs.namenode.name.dir</name>      <value>file:///home/oracle/hadoop-.6.4/hadoop_data/dfs/name</value> </property> <property>      <name>dfs.datanode.data.dir</name>      <value>file:///home/oracle/hadoop-.6.4/hadoop_data/dfs/data</value> </property> 3.mapred-site.xml <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> 4.yarn-site.xml <property> <name>yarn.resourcemanager.address</name> <value>master:8032</value> </property> <property> <name>yarn.resourcemanager.scheduler.address</name> <value>master:8030</value> </property> <property> <name>yarn.resourcemanager.resource-tracker.address</name>  <value>master:8031</value> </property> <property>  <name>yarn.resourcemanager.admin.address</name>  <value>master:8033</value>  </property> <property> <name>yarn.resourcemanager.webapp.address</name> <value>master:8088</value> </property> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property>  <name>yarn.nodemanager.aux-services.mapreduce_shuffle.class</name>  <value>org.apache.hadoop.mapred.ShuffleHandler</value> </property>  <property> <name>yarn.resourcemanager.scheduler.class</name> <value>org.apache.hadoop.yarn.server.resourcemanager.scheduler.capacity.CapacityScheduler</value> </property> 4.slaves slave檔案包含了所有的從節點的主機名。 slave1 slave2 slave3 3.格式化NameNode hdfs namenode -format 4.Hadoop Web使用者介面 HDFS-NameNode: http://192.168.2.80:50070/ 監控HDFS執行指標 查詢連線到NameNode的DataNode列表 瀏覽檔案系統 YARN-ResourceManager: http://192.168.2.80:8088/ 監控應用程式和叢集資源 NodeManager列表 排程器的詳情

相關推薦

Hadoop 2.6.4 完全分散式環境搭建

一、安裝linux 環境 OS Linux:CentOS 6.6 64bit 記憶體 1.5-2GB 硬碟 15-20GB 二、安裝JDK 及修改hostname 1、修改hostname  [[email protected] ~]# vi /etc/s

centos下hadoop-2.6.0完全分散式搭建

一、Hadoop執行模式: Hadoop有三種執行模式,分別如下: 單機(非分散式)模式 偽分散式(用不同程序模仿分散式執行中的各類節點)模式 完全分散式模式 注:前兩種可以在單機執行,最後一種用於真

Hadoop2.7.4完全分散式環境搭建

軟體版本 虛擬機器管理軟體:VMware WorkStation Pro 12.0 作業系統:CentOS 6.7 Hadoop:Hadoop 2.7.4 JDK:jdk-8u65-linux-x64.tar.gz 一、環境準備 1、 修改各個節點主機名:vi /e

hadoop-2.6.5偽分散式叢集搭建

本次搭建的偽分散式hadoop叢集所使用的作業系統是紅帽5,64位系統。 所以,需要注意以下幾點: 1、jdk和hadoop安裝包也應該是64位的 2、64位的jdk是從檔名可以直接看出,例如:jdk-8u172-linux-x64.tar.gz 3、而

Hadoop-2.8.4版本 分散式叢集搭建

Hadoop分散式叢集搭建 建立虛擬機器(用VmWare工具,centos6) 克隆三臺機器 master slaver1 slaver2 分別在每臺機器上安裝jdk >= 1.7版本 vim  /etc/profile 四、同步三臺虛擬機器的時間(時間

Hadoop從入門到精通系列之--3.完全分散式環境搭建

目錄 一 什麼是完全分散式 二 準備伺服器 三 叢集分發指令碼 3.1 scp(secure copy)安全拷貝 3.2 rsync遠端同步 3.3 叢集分發指令碼 四 叢集規劃 4.1 規劃思想 4.2 具體配置 4.3 ssh免密登陸 一 什麼

Hadoop系列之完全分散式環境搭建及測試驗證

前置條件: 已製作好CentOS 虛擬機器模板。 該模板安裝好Oracle JDK,且 JAVA_HOME 值為/usr/java/jdk1.8.0_171-amd64/jre。 準備三臺虛擬機器 搭建完全 Hadoop 分散式最少需要三臺伺服器,假設三臺伺服器

最詳細的Hadoop+Hbase+Hive完全分散式環境搭建教程(二)

繼續上次的教程,這次安裝hbase與hive 一、hbase2.1.1安裝 在master節點: $ tar -zxvf hbase-2.1.1-bin.tar.gz -C /opt $ cd /opt/hbase-2.1.1/conf/ $ vi hbase-

Hadoop完全分散式環境搭建

試驗環境: 1臺NameNode伺服器,2臺DataNode伺服器 安裝步驟: ①:配置/etc/hosts檔案:實現叢集內部的DNS解析,無需查詢DNS伺服器,當訪問遠端主機時首先查詢hosts檔案是否有配置,如果配置則直接按照指定的IP直接訪問遠端主機(

hadoop學習第二天~Hadoop2.6.5完全分散式叢集搭建和測試

環境配置: 系統 centos7 節點 192.168.1.111 namenode 192.168.1.115 datanode2 192.168.1.116 datanode3 java 環境 :

在Ubuntu 上搭建hadoop-2.6.0-cdh分散式叢集

1 虛擬機器配置 序號 作業系統 CPU/core 記憶體/GB 硬碟/GB IP地址 主機名 1 Ubuntu 2 3 20 192.168.0.122 master 2 Ubuntu 1 2 20 192.168.0.123 slave

Idea+Centos+hadoop-2.7.3源碼環境搭建

tar.gz mar 點擊 技術 baidu str mage tar follow Idea+Centos7+hadoop-2.7.3源碼閱讀環境搭建 1.環境準備 安裝maven 3.5.4 下載地址: http://mirrors.shu.edu.cn/apache

Hadoop-3.1.1完全分散式叢集搭建

一、工作準備 1.虛擬機器 安裝Vmware 安裝CentOs虛擬機器三臺 master 192.168.33.101 slave1 192.168.33.102 slave2 192.168.33.103 2.虛擬機器配置

大資料環境搭建之Kafka完全分散式環境搭建步驟詳解

文章目錄 環境準備 解壓安裝 配置檔案 服務啟動 1、啟動分散式叢集的zookeeper 2、啟動Kafka服務 偽分散式搭建完畢之後,只要稍作修改就

linux-2-6-11核心除錯環境搭建

linux核心除錯環境分為兩部分 1)用bochs除錯彙編 2)用qemu除錯從start_kernel開始的部分 環境說明: 核心版本: 2.6.11 ubuntu: 6.10 qemu: qemu-stable-0.13 busybox: 1.10.4 安裝ubuntu

Spark之——Hadoop2.7.3+Spark2.1.0 完全分散式環境 搭建全過程

一、修改hosts檔案在主節點,就是第一臺主機的命令列下;vim /etc/hosts我的是三臺雲主機:在原檔案的基礎上加上;ip1 master worker0 namenode ip2 worker1 datanode1 ip3 worker2 datanode2其中的i

HBase HA完全分散式環境搭建

一 叢集部署架構介紹 Master節點一主一備,跟HadoopNameNode 保持一致,即HBase Master也把主從節點放在NameNode主從同一臺機器 RegionServer放在每一個對

hadoop-2.6.4 配置 啟動 關閉

安裝規劃 搭建一個由三臺機器構成的hadoop叢集,各機器角色如下 mini1 datanode namenode secondenamenode nodemanager resourc

在eclipse上 執行hadoop 2.6.4 出現的問題: 許可權問題

1. Exception in thread "main" ExitCodeException exitCode=1: chmod: 無法訪問"/usr/local/hadoop/tmp/mapred/sanshanxiashi/zhj0307276773657/.sans

Hadoop2.8.1完全分散式環境搭建

前言 本文搭建了一個由三節點(master、slave1、slave2)構成的Hadoop完全分散式叢集(區別單節點偽分散式叢集),並通過Hadoop分散式計算的一個示例測試叢集的正確性。 本文叢集三個節點基於三臺虛擬機器進行搭建,節點安裝的作業系統為Centos7(yum源),Hadoop版本選取為2.8