1. 程式人生 > >Hive的JDBC介面實現(Eclipse環境配置)

Hive的JDBC介面實現(Eclipse環境配置)

實驗環境:

3個節點(OS:ubuntu12.04):master,node1,node2

hadoop版本:1.0.3

hive版本:0.11.0

1.首先是在叢集上安裝Hive:

(1)下載hive安裝包到本地(我下載到了master節點上,為了減輕master節點的壓力,可以下載到任何一臺節點上進行配置),解壓(解壓到哪裡無所謂),因為hive本質是建立在hadoop上的,而每個節點都有hadoop的配置檔案($HADOOP_HOME/conf),所以只要配置好hive使它能找到hadoop即可。

(2)配置系統環境變數:

命令:/etc/profile

export HIVE_HOME=你的解壓地址

export PATH=$HIVE_HOME/bin:其它的

然後終端輸入:source /etc/profile 使環境變數對當前終端生效。

(3)修改Hive配置文件:

Hive的配置文件都在$HIVE_HOME/conf中以模板的形式(.template)給出,我們只需手動建立對應的文件即可:

cp hive-env.sh.template hive-env.sh

cp hive-default.xml.template hive-site.xml

cp hive-exec-log4j.properties.template hive-exec-log4j.properties

cp hive-log4j.properties.template hive-log4j.properties

(4)由於Hive0.11.0預設使用Derby資料庫作為儲存元資料的資料庫,我們可以將此預設的資料庫改為mysql,並修改hive-site.xml檔案:

安裝mysql:sudo apt-get install mysql-server

用root使用者登入:mysql -u root -p

然後建立使用者hive並賦予root許可權。

mysql> CREATE USER 'hive' IDENTIFIED BY 'hive';
mysql> GRANT ALL PRIVILEGES ON *.* TO 'hive'@'%' WITH GRANT OPTION;
mysql> flush privileges;


<property>
  <name>javax.jdo.option.ConnectionURL</name>
  <value>jdbc:mysql://localhost:3306/hive?createDatabaseIfNotExist=true</value>
  <description>JDBC connect string for a JDBC metastore</description>
</property>
<property>
  <name>javax.jdo.option.ConnectionDriverName</name>
  <value>com.mysql.jdbc.Driver</value>
  <description>Driver class name for a JDBC metastore</description>
</property>

<property>
  <name>javax.jdo.option.ConnectionUserName</name>
  <value>hive</value>
  <description>username to use against metastore database</description>
</property>

<property>
  <name>javax.jdo.option.ConnectionPassword</name>
  <value>hive</value>
  <description>password to use against metastore database</description>
</property>

注意上面的使用者名稱和密碼都為hive,是上面在mysql中建立的hive使用者。

由於mysql預設是本地登入,因此還需要修改mysql的配置檔案把本地繫結註釋掉:

命令:sudo gedit /etc/mysql/my.cnf

將"# bind-address           = 127.0.0.1 “ 這行註釋掉。

重啟mysql服務:sudo service mysql restart

將mysql的JDBC驅動包複製到Hive的lib目錄下。(驅動包從網上下載)

(5)啟動hive:

終端輸入:hive

進入hive的命令列介面,輸入show tables; (注意hive的每個hql命令都有分號結束)

若結果正常輸出,說明hive配置成功。

2.建立專案實現hive的jdbc介面

(6)在Eclipse中新建一個Java專案,我的命名:HiveJdbcClient

之後右鍵專案,點選Build Path->Configure Build Path->Libraries

將$HIVE_HOME/lib下的全部Jar包和hadoop-core-1.0.3.jar新增到專案中。

還要記得:

Eclipse上程式操作Hive:
需要hive開啟埠監聽使用者的連線:hive --service hiveserver

專案原始碼:

import java.sql.Connection;
import java.sql.DriverManager;
import java.sql.ResultSet;
import java.sql.SQLException;
import java.sql.Statement;

import org.apache.log4j.Logger;

/**
 * Handle data through hive on eclipse
 * @author urey
 * @time 2013\12\26 19:14	
 */
public class HiveJdbcClient {
	 
	 private static String driverName = "org.apache.hadoop.hive.jdbc.HiveDriver";
     private static String url = "jdbc:hive://192.168.181.128:10000/default";
     private static String user = "";
     private static String password = "";
     private static String sql = "";
     private static ResultSet res;
     private static final Logger log = Logger.getLogger(HiveJdbcClient.class);

     public static void main(String[] args) {
             try {
                     Class.forName(driverName);
                     //Connection conn = DriverManager.getConnection(url, user, password);
                     //預設使用埠10000, 使用預設資料庫,使用者名稱密碼預設
                     Connection conn = DriverManager.getConnection("jdbc:hive://192.168.181.128:10000/default", "", ""); 
                     Statement stmt = conn.createStatement();

                     // 建立的表名
                     String tableName = "testHiveDriverTable";
                     
                     /** 第一步:存在就先刪除 **/
                     sql = "drop table " + tableName;
                     stmt.executeQuery(sql);

                     /** 第二步:不存在就建立 **/
                     sql = "create table " + tableName + " (key int, value string)  row format delimited fields terminated by '\t'";
                     stmt.executeQuery(sql);

                     // 執行“show tables”操作
                     sql = "show tables '" + tableName + "'";
                     System.out.println("Running:" + sql);
                     res = stmt.executeQuery(sql);
                     System.out.println("執行“show tables”執行結果:");
                     if (res.next()) {
                             System.out.println(res.getString(1));
                     }

                     // 執行“describe table”操作
                     sql = "describe " + tableName;
                     System.out.println("Running:" + sql);
                     res = stmt.executeQuery(sql);
                     System.out.println("執行“describe table”執行結果:");
                     while (res.next()) {  
                             System.out.println(res.getString(1) + "\t" + res.getString(2));
                     }

                     // 執行“load data into table”操作
                     String filepath = "/home/hadoop/file/test2_hive.txt";
                     sql = "load data local inpath '" + filepath + "' into table " + tableName;
                     System.out.println("Running:" + sql);
                     res = stmt.executeQuery(sql);
                     
                     // 執行“select * query”操作
                     sql = "select * from " + tableName;
                     System.out.println("Running:" + sql);
                     res = stmt.executeQuery(sql);
                     System.out.println("執行“select * query”執行結果:");
                     while (res.next()) {
                             System.out.println(res.getInt(1) + "\t" + res.getString(2));
                     }

                     // 執行“regular hive query”操作
                     sql = "select count(1) from " + tableName;
                     System.out.println("Running:" + sql);
                     res = stmt.executeQuery(sql);
                     System.out.println("執行“regular hive query”執行結果:");
                     while (res.next()) {
                             System.out.println(res.getString(1));

                     }

                     conn.close();
                     conn = null;
             } catch (ClassNotFoundException e) {
                     e.printStackTrace();
                     log.error(driverName + " not found!", e);
                     System.exit(1);
             } catch (SQLException e) {
                     e.printStackTrace();
                     log.error("Connection error!", e);
                     System.exit(1);
             }

     }
}

將專案執行在Hadoop上,成功!


並且我們可以在hdfs上找到剛才上傳的檔案: