安裝HBase--單節點、偽分散式、完全分散式安裝
阿新 • • 發佈:2018-11-16
1.下載HBase
連結:http://mirrors.cnnic.cn/apache/hbase/
選擇 stable 目錄,下載 bin 檔案:
在Linux上解壓,部落格中解壓在/home/hadoop 目錄下:
進入解壓目錄:
2.修改配置
- 修改JDK路徑、啟用HBase自帶zookeeper
vim conf/hbase-env.sh
JDK路徑按照安裝路徑配置:
啟用自帶zookeeper:
- 修改HBase所基於的Hadoop版本:
ls lib | grep '^hadoop-'
博主第一次查詢出來的為2.7.4,由於後面已經替換為2.7.3,所以查詢出來的為2.7.3.
假設還沒有執行替換操作,則查詢出來的應為2.7.4,如果安裝的Hadoop為2.7.4就可以不用再進行替換操作。但是,如果不是,則需要進行替換。
博主安裝的Hadoop為2.7.3,這裡以2.7.3為例(若不是2.7.3,只需要將下面出現2.7.3的改為相應的版本即可):
分別執行如下兩條命令:
將已安裝版本的Hadoop相應jar包複製到 lib目錄:
ls lib | grep '^hadoop-' | \ sed 's/2.7.4/2.7.3/' | \ xargs -i find $HADOOP_HOME -name {} | \ xargs -i cp {} /home/hadoop/hbase-1.4.8/lib/
刪除HBase原有版本的jar包:
rm -rf lib/hadoop-*2.7.4.jar
做完第1、2 步是必須的操作,下面進行單節點、偽分散式、完全分散式檔案的配置。
3.單節點配置檔案
vim conf/hbase-site.xml
使用Linux檔案系統。內容如下,以下的目錄不用自己建立,啟動HBase時會自動建立:
<configuration> <property> <name>hbase.rootdir</name> <value>file:///home/hadoop/hbase</value> </property> <property> <name>hbase.zookeeper.property.dataDir</name> <value>/home/hadoop/zookeeper</value> </property> </configuration>
啟動HBase:
HBase的所有服務均執行在一個JVM,所以只會看到HMaster。
關閉命令:
4.偽分散式配置
vim conf/hbase-site.xml
使用HDFS檔案系統:
<configuration>
<property>
<name>hbase.rootdir</name>
<value>hdfs://master:9000/hbase</value>
</property>
<property>
<name>hbase.zookeeper.property.dataDir</name>
<value>/home/hadoop/zookeeper</value>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
</configuration>
啟動(先關閉),先啟動Hadoop:
bin/start-hbase.sh
檢視HDFS:
5.完全分散式配置
vim conf/hbase-site.xml
這裡master為NameNode,slave4, slave5, slave6, slave7為DataNode(可根據自己叢集做相應設定):
<configuration>
<property>
<name>hbase.rootdir</name>
<value>hdfs://master:9000/hbase</value>
</property>
<property>
<name>hbase.zookeeper.property.dataDir</name>
<value>/home/hadoop/zookeeper</value>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>master, slave4, slave5, slave6, slave7</value>
</property>
</configuration>
新增想要執行RegionServer的節點名:
設定slave6為執行HMaster的備用節點,該檔案不存在需要建立:
啟動(先關閉),先啟動Hadoop叢集:
bin/start-hbase.sh
檢視叢集: