生產環境下hadoop叢集配置之DNS配置實驗
一、實驗環境:
Mac os 下 VirtualBox中三臺安裝centos 6.3虛擬機器
主機名 |
別名 |
IP地址 |
系統版本 |
角色 |
lhmaster |
lhmaster.lihui.hadoop |
192.168.1.4 |
Centos 6.3 |
master |
lhslave01 |
lhslave01.lihui.hadoop |
192.168.1.5 |
Centos 6.3 |
slave |
lhslave02 |
lhslave02.lihui.hadoop |
192.168.1.6 |
Centos 6.3 |
slave |
配置說明:DNS
二、安裝配置DNS
1.安裝bind軟體包
檢測bing是否安裝,如圖所示
未安裝執行yum進行安裝,如圖
安裝結果,如圖
安裝bing其他相關包,如下:
安裝結果:如圖
2.修改bind配置檔案
1) 執行命令 vim /etc/named.conf 修改配置檔案named.conf
修改前,如圖
修改後:
2) 修改配置檔案named.rfc1912.zones,
在/etc/named.conf 玩呢間最後是named.rfc1912.zones的路徑
include "/etc/named.rfc1912.zones"
執行命令 vim /etc/named.rfc.1912.zones
修改結果如下圖:
3) 建立上一步中的 域名配置檔案lihui.hadoop.zone和反向配置檔案1.168.192.in-addr.zone
如下命令:
[[email protected] lihui]# cd /var/named[[email protected] named]# ls
chroot dynamic named.empty named.loopback
data named.ca named.localhost slaves
[[email protected] named]# cp -p named.localhost lihui.hadoop.zone
[[email protected] named]# cp -p named.localhost 1.168.192.in-addr.zone
[[email protected] named]# ls
1.168.192.in-addr.zone dynamic named.empty slaves
chroot lihui.hadoop.zone named.localhost
data named.ca named.loopback
--修改lihui.hadoop.zone和1.168.192.in-addr.zone
lihui.hadoop.zone中新增正向配置,如下:
1.168.192.in-addr.zone中新增反向配置,如下:
4) 修改各節點/etc/resolv.conf檔案
在每個節點的 /etc/resolv.conf 檔案中加入 伺服器ip地址
本次測試加入:nameserver 192.168.1.4
注意:目前網上大部分資料中都是如此設定,設定完後執行沒有什麼問題,但是一旦重啟機器後,/etc/resolv.conf 會恢復原值,
所以使用另一種方式就是修改
/etc/sysconfig/network-scripts/ifcfg-eth0
這個檔案:在其中加入 DNS1=192.168.4
這樣設定後,/etc/resolv.conf裡面根本就不需要設定。service network restart 後,可以發現/etc/resolv.conf裡面就有剛才加入的dns的解析ip了。
不過對於其他的系統是否也是這樣的,要是遇到同樣的問題。就這樣設一下試試
3.驗證測試
參考:
相關推薦
生產環境下hadoop叢集配置之DNS配置實驗
一、實驗環境: Mac os 下 VirtualBox中三臺安裝centos 6.3虛擬機器 主機名 別名 IP地址 系統版本 角色 lhmaster lhmaster.lihui.hadoop 192.168.1.4 Centos
生產環境下hadoop HA叢集及Hbase HA叢集配置
一、環境準備作業系統版本:centos7 64位hadoop版本:hadoop-2.7.3hbase版本:hbase-1.2.41、機器及角色IP角色192.168.11.131NamenodeDFSZKFailoverControllerResourceManagerJob
生產環境下hadoop HA集群及Hbase HA集群配置
自動切換 value 下載 shared 第一次 borde sla com 結果 一、環境準備操作系統版本:centos7 64位hadoop版本:hadoop-2.7.3hbase版本:hbase-1.2.41、機器及角色IP角色192.168.11.131Nameno
VMware 下Hadoop叢集環境搭建之虛擬機器克隆,Hadoop環境配置
在上一篇我們完成了ContOS網路配置以及JDK的安裝,這一篇將在上一篇的基礎上繼續講解虛擬機器的克隆,hadoop環境搭建 虛擬機器克隆. 利用上一篇已經完成網路配置和jdk安裝的虛擬機器在克隆兩臺虛擬機器. 1. 將擬機hadoop01關機.
Linux7 下Hadoop叢集使用者管理方案之二 CDH5.9.0版本安裝配置
前期準備: 第一步:裝NTP 這個單獨做了一個文件專門寫NTP. 我擦。搞死了。一上午都在搞這個ntp。。。終於搞定了。 第二步:改Hosts檔案 echo '10.10.106.156 edu-bigdata-01.novalocal' > /etc/hos
windows環境下zookeeper叢集配置操作
安裝啟動zookeeper 下載後解壓,筆者使用的是3.4.5版本。 解壓後看到如下檔案結構: zookeeper-3.4.5 +--bin +--conf +contrib +--docs +--lib
ubntu下單機配置fastdfs作為開發環境(2)---nginx生產環境下再編譯+fastdfs擴充套件模組的編譯
前言 參考文章 FastDFS搭建單機圖片伺服器(二) 這篇文章也是參考了網上的文章,為什麼不直接說是轉載的?因為上面文章只說了一半—實際生產環境,譬如,nginx除了fastdfs,實際上可能還要編譯openssl,geoip等等擴充套件模組的。 編譯安裝過程 1、安裝
Windows環境下hadoop安裝和配置
1.下載Hadoop http://www.apache.org/dyn/closer.cgi/hadoop/common 2.解壓 hadoop-2.7.3.tar.gz 點右鍵“解壓到hadoop-2.7.3” 資料夾路徑 xxx/xxxx/hadoop-2.7.3 複製
分散式Web應用----Linux環境下zookeeper叢集環境的安裝與配置
寫在前面 zookeeper在分散式應用中運用的比較廣泛,瞭解zookeeper的原理對理解分佈架構的應用具有很大的幫助,學會安裝zookeeper是學習zookeeper的前提,自己剛剛學習zookeeper,記錄一下安裝過程,增加自己印象,方便其它人學習。
《Hadoop》之"踽踽獨行"(九)Hadoop叢集的四個配置檔案的屬性解析
在啟動hadoop叢集的守護執行緒時,一定會載入並執行相關的class位元組碼檔案。通過common模組和hdfs模組裡的原始碼可以看到,它們讀取了相關的配置檔案。 hadoop-common-2.7.3-sources.jar下的org.apache.hadoop.conf.Configura
生產環境下Centos 6.5優化配置
#可用於apache,nginx,squid多種等web應用 net.ipv4.tcp_max_syn_backlog = 65536 net.core.netdev_max_backlog = 32768 net.core.somaxconn = 32768 net.core.wmem_default =
Hadoop-2.7.3環境下Hive-2.1.1安裝配置。
環境:ubuntu-16.0.4;jdk1.8.0_111;apache-hadoop-2.7.3;apache-hive-2.1.1。這裡只記錄Hive的安裝。Hive只需要安裝到一個節點上即可。我這裡是裝在Namenode上的。首先從官網上下載所需要的版本,本人下載的ap
CentOS7環境下Hbase叢集的配置
0. 前提 jdk 1.8.0 hadoop 2.9.0 zookeeper 3.4.6 1. 下載解壓縮 hbase-1.2.6-bin.tar.gz 2. 修改配置檔案 /ho
搭建VM的虛擬機器下hadoop叢集環境
前言 大家都知道,Hadoop的部署方式可分為 單機模式偽分散式完全分散式 本篇主要講解的就是完全分散式。 搭建完全分散式的叢集環境,需要多臺的硬體裝置,作為初學者,為了搭建叢集去買多臺電腦,多少有點不現實,所以這裡我採用的是VM虛擬機器,模擬
Windows環境下 RabbitMQ叢集配置
原文連結:http://www.cnblogs.com/hegx/p/6097147.html 一、在叢集機器上安裝erlang環境、安裝rabbitmq; 二、 假設,192.168.10.111的節點名稱為 [email protected],192.
Hadoop叢集搭建之二 叢集環境部署說明+SSH
一、叢集軟體選擇及環境部署 1.叢集軟體選擇 2.單機情況下偽分散式模式下叢集主機和ip對映 叢集角色 主機名 使用者名稱 IP Master namenode hadoop Slave1
生產環境下springboot中配置禁用swagger
一、序言 在生產環境下,我們需要關閉swagger配置,避免暴露介面的這種危險行為。 二、方法: 禁用方法1:使用註解@Profile({"dev","test"}) 表示在開發或測試環境開啟,而
kubernetes實戰之部署一個接近生產環境的consul叢集
系列目錄 前面我們介紹瞭如何在windows單機以及如何基於docker部署consul叢集,看起來也不是很複雜,然而如果想要把consul部署到kubernetes叢集中並充分利用kubernetes叢集的伸縮和排程功能並非易事.前面我們首先部署一個節點,部署完成以後獲取它的ip,然後其它的ip都joi
Linux Shell腳本生產環境下安全地刪除文件
rm safe 腳本編寫背景 無論是生產環境、測試環境還是開發環境,經常需要使用rm命令刪除&批量一些“重要”目錄下的文件。按照Linux的哲學“小即是美”(一個程序只做一件事)+“用戶清楚自己做什麽”(用戶知道自己想要什麽,也明白自己在做什麽,並且會為自己的行為負責),那麽用戶在執行r
一次生產環境下MongoDB備份還原數據
刪除 命令格式 type 庫存 功能 字符 導出文件 信息 fields 最近開發一個版本的功能當中用到了MongoDB分頁,懶於造數據,於是就研究了下從生產環境上導出數據到本地來進行測試。 研究了一下,發現MongoDB的備份還原和MySQL語法還挺類似,下面請看詳細介紹