1. 程式人生 > >Hadoop2.7.0叢集的NameNode在HA下如何切換active和standby狀態

Hadoop2.7.0叢集的NameNode在HA下如何切換active和standby狀態

       1、筆者所在公司的開發環境搭建了一個hadoop叢集,為保證HDFS的高可用,配置了NameNode的HA模式 , 10.17.2.134 為active ,10.17.2.121為standby

        2、筆者平時訓練寫的很多mapreduce程式,指定的都是hdfs://10.17.2.134:9000/這個路徑 ,由於開發環境都是一些虛擬機器,配置較低,hadoop叢集經常出現某個節點掛掉的情況,重啟hadoop集群后,10.17.2.134變為了standby狀態 ,10.17.2.121變為了active狀態

        3、由於NameNode狀態的變更,導致筆者之前很多mapreduce程式都得改來改去,這個時候,只需要重啟10.17.2.121機器上面DFSZKFailoverController程序即可將active/standby狀態切換回來,

               (3.1)先停掉  hadoop-daemon.sh stop zkfc

               (3.2)重啟  hadoop-daemon.sh start  zkfc

相關推薦

Hadoop2.7.0叢集的NameNode在HA如何切換activestandby狀態

       1、筆者所在公司的開發環境搭建了一個hadoop叢集,為保證HDFS的高可用,配置了NameNode的HA模式 , 10.17.2.134 為active ,10.17.2.121為standby         2、筆者平時訓練寫的很多mapreduce

LinuxHadoop2.7.1叢集環境的搭建(超詳細版)

1 <?xml version="1.0"?> 2 <!-- 3 Licensed under the Apache License, Version 2.0 (the "License"); 4 you may not use this file except in c

CENTOS php 7.0 +nginx 環境 安裝yaf框架

yaf框架安裝;cent os安裝yaf #php -v PHP 7.0.19 (cli) (built: May 12 2017 21:01:27) ( NTS ) Copyright (c) 1997-2017 The PHP Group Zend Engine v3.0.0, Copyright (c)

hadoop2.7.0實踐- WordCount

path static nts sdn 步驟 popu cer token apache 環境要求 說明:本文檔為wordcount的mapreduce job編寫及執行文檔。 操作系統:Ubuntu14 x64位 Hadoop:Hadoop 2.

Ubuntu + Hadoop2.7.3叢集搭建

先搭建Hadoop偽分佈: Ubuntu + Hadoop2.7.3偽分佈搭建 1.修改/etc/hosts檔案,IP對映 內容如下: 注:10.13.7.72為master節點IP,10.13.7.71為slave節點IP。(根據自己的IP地址設定) 2.修改maste

PHP 7.0 5.6 安裝 phpLDAPadmin 發生錯誤的修正方法

在稍具規模的網路環境中, 網管時常選用 LDAP 來進行帳號的統整管理, 一方面提供管理便利度, 另一方面使用者也不必因為不同系統而記憶不同帳號, phpLDAPadmin 是一套常見的 LDAP 管理介面, 但 phpLDAPadmin 已經很久沒有更新了, 若想要安裝在 PHP 5.6 以上, 甚至是最新

Hadoop2.7.1 叢集部署及自動化指令碼

                     實驗環境作業系統:ubuntu 14.04 64位                    主機名IPnamenode10.107.12.10datanode110.107.12.20datanode210.107.12.50datanode310.107.12.60j

Hadoop2.7.4叢集搭建

HDFS:分散式檔案系統 MAPREDUCE:分散式運算程式開發框架 HIVE:基於HADOOP的分散式資料倉庫,提供基於SQL的查詢資料操作 HBASE:基於HADOOP的分散式海量資料庫

Hadoop2.7.6叢集搭建

首先,搭建的準備工作:Linux(CentOS)、xshell、至少8G記憶體。 建立幾個虛擬機器,一主多從,每一個建立的時候,在最後安裝前的設定裡面,設定網路和主機名的兩個地方,一個是IPv4那裡,設定好IP地址,埠號和閘道器;還有一個是在常規那裡勾選上第一個。每一個建立完,都要檢測是否能

centos7 搭建ha(高可用)hadoop2.7.3叢集

寫在前面 作為一個單體應用開發人員對於理解分散式應用和微服務的理論還可以。但是部署分散式環境來說還是一個挑戰。最近在學習hadoop,正也把學習的東西分享出來,希望幫助感興趣的人。 前面一章寫了centos7搭建hadoop叢集 再跟著做本章實驗前建議初學

hadoop學習1--hadoop2.7.3叢集環境搭建

           下面的部署步驟,除非說明是在哪個伺服器上操作,否則預設為在所有伺服器上都要操作。為了方便,使用root使用者。    1.準備工作    1.1 centOS7伺服器3臺    master    192.168.174.132    node1  

Hadoop2.6.0叢集搭建

1. 基本概念 2. 基礎配置 2.1 三臺伺服器(可以使用虛擬機器) 系統:Ubuntu14.04 64位 Server版 Jdk版本:jdk1.7.0_79 Hadoop版本: 2.6.0 Zookeeper版本: 3.4.6 2.

CentOS7.0安裝配置hadoop2.7.0 資源準備 資源下載: hadoop-2.7.0.tar.gz 密碼:727y jdk-8u45-linux-x64.tar.gz 密碼:d8bm

CentOS7.0安裝配置hadoop2.7.0 資源準備 資源下載: 注意事項: 如果自己下載資源的話,注意hadoop,jdk,centos都應該是64位或者32位的,以免出現無法預料的錯誤,上面的資源都是64位的我是在mac下配置的,virtual box是ios x系統的,如果是其它系統的另

hadoop2.7.0-偽分佈5分鐘快速搭建

1關閉防火牆  (防止發生ui介面無法登陸) #關閉防火牆 service iptables stop #檢視防火牆開機啟動狀態 chkconfig iptables --list #關閉防火牆開機啟動 chkconfig iptables off2.安裝hadoop和jd

Android 7.0系統原始碼新增共享庫

     今天的任務從早上搞到現在,才算完成,本來以為比較簡單,就是出一個Demo,將實際業務的邏輯封裝成so庫,放在系統層,對上層不暴露任何東西,中間就一層JNI呼叫,原本以為很簡單,但是由於自己的一個壞習慣,折騰了一天。將處理過程詳細記錄下來,同時吸取教訓,也希望能給大家

hadoop2.7.2叢集hive-1.2.1整合hbase-1.2.1

本文操作基於官方文件說明,以及其他相關資料,若有錯誤,希望大家指正 根據hive官方說明整合hbase連結如下https://cwiki.apache.org/confluence/display/Hive/HBaseIntegration 文中指出hive0.9.0匹配的

hadoop2.2.0偽分佈安裝hive

1.環境及軟體介紹:CentOS-6.4-x86_64-bin-DVD1.isohadoop-2.2.0hive-0.12.0mysql(為CentOS6.4自帶版本為MySQL5.1.66). 2.MySQL的安裝和解除安裝 使用rpm –qa|grep mysql檢視已

Rust 1.7.0 匹配器 match 的簡介使用

let 滿足 選擇 多個 efault msg i++ pretty article 使用過正則表達式的人應該都知道 matcher ,通過 matcher 匹配器運算正則表達式,完畢一系列的匹配規則。 在Rust 中 沒有 switch 語句。mat

Linux切換python2python3為默認執行版本的方式(也能作用於sublime等編輯器的默認執行方式)

安裝路徑 linux code bsp 指令 config 選項 原來 pda 使用 alternate 機制可以自由切換python默認版本,只需要在終端輸入簡單的幾個指令: sudo update-alternatives --install /usr/bin/

Linux切換Python2Python3的4種方法

  原文標題:Linux下切換Python2和Python3的4種方法 原文連結:http://www.codesec.net/view/430627.html   本篇博文面向linux使用者,在Linux下(Ubuntu)下測試通過,Win使用者嘛,…… 0x