1. 程式人生 > >Spark SQL中thriftserver和beeline的使用

Spark SQL中thriftserver和beeline的使用

使用的前提是你已經安裝好了spark,在這裡我使用的版本是spark-2.0.2-bin-hadoop2.7,建議使用該版本,因為試了幾個版本都不理想,最後找到了這個版本感覺挺好的,學習Spark SQL很方便.

1. 首先是啟動thriftserver服務端: 伺服器端是在spark目錄下的sbin目錄下,但是啟動的時候不能直接使用./start-thriftserver.sh進行啟動,會報沒有設定master, 另外就是Spark SQL是需要和mysql一樣操作表的,所以需要連線mysql的驅動jar,因此命令如下:

./start-thriftserver.sh --master local[2] --jars ~/software/mysql-connector-java-5.1.38.jar

啟動完成之後可以在瀏覽器中進行檢視,是否啟動成功;在瀏覽器中輸入以下地址即可.(阿里雲伺服器需要開放安全組埠)

ip:4040

進入到下面頁面: 在這裡插入圖片描述 進入到這個頁面之後可以點選最右面的 JDBC/ODBC Server,會顯示你的啟動時間,表示 thriftserver已經啟動成功了; 在這裡插入圖片描述

2. 啟動beeline客戶端進行資料的操作:

啟動程式在bin目錄下,只需要輸入以下命令就會連線到資料庫:

./beeline -u jdbc:hive2://localhost:10000 -n hadoop

會出現以下操作介面: 在這裡插入圖片描述 出現這個介面就是表示客戶端連線成功!下面就是操作資料庫的操作,和mysql中一樣的; 在這裡插入圖片描述

另外可以在瀏覽器中檢視剛才的操作行為: 在這裡插入圖片描述 到這裡實際就完成了thriftserver/beeline的使用,下面拓展以下thriftserver埠的修改,只需要在啟動的時候加上一段配置命令即可:

./start-thriftserver.sh --master local[2] --jars ~/software/mysql-connector-java-5.1.38.jar \
                --hiveconf hive.server2.thrift.port=14000

–hiveconf 就是修改埠的代表,因為預設的埠是10000,需要修改的話加上即可,對應的啟動客戶端埠也要進行修改:

 ./beeline -u jdbc:hive2://localhost:14000 -n hadoop