大資料入門(17)hbase叢集搭建
1.上傳hbase安裝包
2.解壓
3.配置hbase叢集,要修改3個檔案(首先zk叢集已經安裝好了)
(1)修改hbase-env.sh
export JAVA_HOME=/home/admin/app/java/jdk1.7.0_71
//告訴hbase使用外部的zk
export HBASE_MANAGES_ZK=false
(2)vim hbase-site.xml(加註釋容易亂碼,整理後貼上到xml中)
<configuration>
<!-- 指定hbase在HDFS上儲存的路徑 -->
<property>
<name>hbase.rootdir</name>
<value>hdfs://ns1/hbase</value>
</property>
<!-- 指定hbase是分散式的 -->
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<!-- 指定zk的地址,多個用“,”分割 -->
<property>
<name>hbase.zookeeper.quorum</name>
<value>weekend05:2181,weekend06:2181,weekend07:2181</value>
</property>
</configuration>
(3)vim regionservers
weekend05
weekend06
weekend07
(4)把hadoop的hdfs-site.xml和core-site.xml 放到hbase/conf下
注意:要把hadoop的hdfs-site.xml和core-site.xml 放到hbase/conf下;(否則ns1無法解析)
目錄conf下執行以下命令
cp ~/app/hadoop-2.4.1/etc/hadoop/core-site.xml ./
cp ~/app/hadoop-2.4.1/etc/hadoop/hdfs-site.xml ./
(5)拷貝hbase到其他節點
scp -r hbase-0.96.2-hadoop2/ weekend04:/home/admin/app/
scp -r hbase-0.96.2-hadoop2/ weekend05:/home/admin/app/
scp -r hbase-0.96.2-hadoop2/ weekend06:/home/admin/app/
scp -r hbase-0.96.2-hadoop2/ weekend07:/home/admin/app/
4.將配置好的HBase拷貝到每一個節點並同步時間。
5.啟動所有的hbase
分別啟動zk
./zkServer.sh start
journalnode
啟動hbase叢集
start-dfs.sh
start-yarn.sh
啟動hbase,在主節點上執行:
start-hbase.sh
6.通過瀏覽器訪問hbase管理頁面
weekend03:60010
7.為保證叢集的可靠性,要啟動多個HMaster,在weekend04上操作
hbase-daemon.sh start master
hbase的javaAPI
//hbase操作必備
private static Configuration getConfiguration() {
Configuration conf = HBaseConfiguration.create();
conf.set("hbase.rootdir", "hdfs://hadoop0:9000/hbase");
//使用eclipse時必須新增這個,否則無法定位
conf.set("hbase.zookeeper.quorum", "hadoop0");
return conf;
}