1. 程式人生 > >生產環境下hadoop叢集配置之DNS配置實驗

生產環境下hadoop叢集配置之DNS配置實驗

一、實驗環境:

Mac os 下 VirtualBox中三臺安裝centos 6.3虛擬機器

主機名

別名

IP地址

系統版本

角色

lhmaster

lhmaster.lihui.hadoop

192.168.1.4

Centos 6.3

master

lhslave01

lhslave01.lihui.hadoop

192.168.1.5

Centos 6.3

slave

lhslave02

lhslave02.lihui.hadoop

192.168.1.6

Centos 6.3

slave

配置說明:DNS

伺服器配置在lhmastermaster)節點上,對lhmasterlhslave01lhslave02節點的主機名進行解析。

二、安裝配置DNS

1.安裝bind軟體包

     檢測bing是否安裝,如圖所示

     

     未安裝執行yum進行安裝,如圖

     

     安裝結果,如圖

     

    安裝bing其他相關包,如下:

    

    安裝結果:如圖

   

2.修改bind配置檔案

1)       執行命令 vim /etc/named.conf 修改配置檔案named.conf

          修改前,如圖

          

         修改後:

         

2)        修改配置檔案named.rfc1912.zones

          在/etc/named.conf 玩呢間最後是named.rfc1912.zones的路徑

          include "/etc/named.rfc1912.zones"

          執行命令 vim /etc/named.rfc.1912.zones

          修改結果如下圖:

          

3)        建立上一步中的 域名配置檔案lihui.hadoop.zone和反向配置檔案1.168.192.in-addr.zone

           如下命令:

[[email protected] lihui]# cd /var/named
[[email protected] named]# ls
chroot  dynamic   named.empty      named.loopback
data    named.ca  named.localhost  slaves
[[email protected] named]# cp -p named.localhost lihui.hadoop.zone
[[email protected] named]# cp -p named.localhost 1.168.192.in-addr.zone
[[email protected] named]# ls
1.168.192.in-addr.zone  dynamic            named.empty      slaves
chroot                  lihui.hadoop.zone  named.localhost
data                    named.ca           named.loopback

--修改lihui.hadoop.zone1.168.192.in-addr.zone

   lihui.hadoop.zone中新增正向配置,如下:

   

  1.168.192.in-addr.zone中新增反向配置,如下:

  

4)        修改各節點/etc/resolv.conf檔案

在每個節點的 /etc/resolv.conf 檔案中加入 伺服器ip地址

         本次測試加入:nameserver 192.168.1.4

 注意:目前網上大部分資料中都是如此設定,設定完後執行沒有什麼問題,但是一旦重啟機器後,/etc/resolv.conf 會恢復原值,

 所以使用另一種方式就是修改

/etc/sysconfig/network-scripts/ifcfg-eth0

這個檔案:在其中加入 DNS1=192.168.4

這樣設定後,/etc/resolv.conf裡面根本就不需要設定。service network restart 後,可以發現/etc/resolv.conf裡面就有剛才加入的dns的解析ip了。

不過對於其他的系統是否也是這樣的,要是遇到同樣的問題。就這樣設一下試試

3.驗證測試



參考:

相關推薦

生產環境hadoop叢集配置DNS配置實驗

一、實驗環境: Mac os 下 VirtualBox中三臺安裝centos 6.3虛擬機器 主機名 別名 IP地址 系統版本 角色 lhmaster lhmaster.lihui.hadoop 192.168.1.4 Centos

生產環境hadoop HA叢集及Hbase HA叢集配置

一、環境準備作業系統版本:centos7 64位hadoop版本:hadoop-2.7.3hbase版本:hbase-1.2.41、機器及角色IP角色192.168.11.131NamenodeDFSZKFailoverControllerResourceManagerJob

生產環境hadoop HA集群及Hbase HA集群配置

自動切換 value 下載 shared 第一次 borde sla com 結果 一、環境準備操作系統版本:centos7 64位hadoop版本:hadoop-2.7.3hbase版本:hbase-1.2.41、機器及角色IP角色192.168.11.131Nameno

VMware Hadoop叢集環境搭建虛擬機器克隆,Hadoop環境配置

在上一篇我們完成了ContOS網路配置以及JDK的安裝,這一篇將在上一篇的基礎上繼續講解虛擬機器的克隆,hadoop環境搭建 虛擬機器克隆. 利用上一篇已經完成網路配置和jdk安裝的虛擬機器在克隆兩臺虛擬機器. 1. 將擬機hadoop01關機.

Linux7 Hadoop叢集使用者管理方案二 CDH5.9.0版本安裝配置

前期準備: 第一步:裝NTP 這個單獨做了一個文件專門寫NTP. 我擦。搞死了。一上午都在搞這個ntp。。。終於搞定了。 第二步:改Hosts檔案 echo '10.10.106.156   edu-bigdata-01.novalocal' > /etc/hos

windows環境zookeeper叢集配置操作

安裝啟動zookeeper 下載後解壓,筆者使用的是3.4.5版本。 解壓後看到如下檔案結構: zookeeper-3.4.5 +--bin +--conf +contrib +--docs +--lib

ubntu單機配置fastdfs作為開發環境(2)---nginx生產環境再編譯+fastdfs擴充套件模組的編譯

前言 參考文章 FastDFS搭建單機圖片伺服器(二) 這篇文章也是參考了網上的文章,為什麼不直接說是轉載的?因為上面文章只說了一半—實際生產環境,譬如,nginx除了fastdfs,實際上可能還要編譯openssl,geoip等等擴充套件模組的。 編譯安裝過程 1、安裝

Windows環境hadoop安裝和配置

1.下載Hadoop http://www.apache.org/dyn/closer.cgi/hadoop/common 2.解壓 hadoop-2.7.3.tar.gz 點右鍵“解壓到hadoop-2.7.3” 資料夾路徑 xxx/xxxx/hadoop-2.7.3 複製

分散式Web應用----Linux環境zookeeper叢集環境的安裝與配置

寫在前面 zookeeper在分散式應用中運用的比較廣泛,瞭解zookeeper的原理對理解分佈架構的應用具有很大的幫助,學會安裝zookeeper是學習zookeeper的前提,自己剛剛學習zookeeper,記錄一下安裝過程,增加自己印象,方便其它人學習。

Hadoop"踽踽獨行"(九)Hadoop叢集的四個配置檔案的屬性解析

在啟動hadoop叢集的守護執行緒時,一定會載入並執行相關的class位元組碼檔案。通過common模組和hdfs模組裡的原始碼可以看到,它們讀取了相關的配置檔案。 hadoop-common-2.7.3-sources.jar下的org.apache.hadoop.conf.Configura

生產環境Centos 6.5優化配置

#可用於apache,nginx,squid多種等web應用 net.ipv4.tcp_max_syn_backlog = 65536 net.core.netdev_max_backlog = 32768 net.core.somaxconn = 32768 net.core.wmem_default =

Hadoop-2.7.3環境Hive-2.1.1安裝配置

環境:ubuntu-16.0.4;jdk1.8.0_111;apache-hadoop-2.7.3;apache-hive-2.1.1。這裡只記錄Hive的安裝。Hive只需要安裝到一個節點上即可。我這裡是裝在Namenode上的。首先從官網上下載所需要的版本,本人下載的ap

CentOS7環境Hbase叢集配置

0. 前提 jdk 1.8.0 hadoop 2.9.0 zookeeper 3.4.6 1. 下載解壓縮 hbase-1.2.6-bin.tar.gz 2. 修改配置檔案 /ho

搭建VM的虛擬機器hadoop叢集環境

前言 大家都知道,Hadoop的部署方式可分為 單機模式偽分散式完全分散式 本篇主要講解的就是完全分散式。 搭建完全分散式的叢集環境,需要多臺的硬體裝置,作為初學者,為了搭建叢集去買多臺電腦,多少有點不現實,所以這裡我採用的是VM虛擬機器,模擬

Windows環境 RabbitMQ叢集配置

原文連結:http://www.cnblogs.com/hegx/p/6097147.html 一、在叢集機器上安裝erlang環境、安裝rabbitmq; 二、 假設,192.168.10.111的節點名稱為 [email protected],192.

Hadoop叢集搭建叢集環境部署說明+SSH

一、叢集軟體選擇及環境部署 1.叢集軟體選擇 2.單機情況下偽分散式模式下叢集主機和ip對映 叢集角色 主機名 使用者名稱 IP Master namenode hadoop Slave1

生產環境springboot中配置禁用swagger

一、序言 在生產環境下,我們需要關閉swagger配置,避免暴露介面的這種危險行為。 二、方法: 禁用方法1:使用註解@Profile({"dev","test"}) 表示在開發或測試環境開啟,而

kubernetes實戰部署一個接近生產環境的consul叢集

系列目錄 前面我們介紹瞭如何在windows單機以及如何基於docker部署consul叢集,看起來也不是很複雜,然而如果想要把consul部署到kubernetes叢集中並充分利用kubernetes叢集的伸縮和排程功能並非易事.前面我們首先部署一個節點,部署完成以後獲取它的ip,然後其它的ip都joi

Linux Shell腳本生產環境安全地刪除文件

rm safe 腳本編寫背景 無論是生產環境、測試環境還是開發環境,經常需要使用rm命令刪除&批量一些“重要”目錄下的文件。按照Linux的哲學“小即是美”(一個程序只做一件事)+“用戶清楚自己做什麽”(用戶知道自己想要什麽,也明白自己在做什麽,並且會為自己的行為負責),那麽用戶在執行r

一次生產環境MongoDB備份還原數據

刪除 命令格式 type 庫存 功能 字符 導出文件 信息 fields 最近開發一個版本的功能當中用到了MongoDB分頁,懶於造數據,於是就研究了下從生產環境上導出數據到本地來進行測試。 研究了一下,發現MongoDB的備份還原和MySQL語法還挺類似,下面請看詳細介紹