Spark SQL中thriftserver和beeline的使用
阿新 • • 發佈:2018-12-14
使用的前提是你已經安裝好了spark,在這裡我使用的版本是spark-2.0.2-bin-hadoop2.7,建議使用該版本,因為試了幾個版本都不理想,最後找到了這個版本感覺挺好的,學習Spark SQL很方便.
1. 首先是啟動thriftserver服務端: 伺服器端是在spark目錄下的sbin目錄下,但是啟動的時候不能直接使用./start-thriftserver.sh進行啟動,會報沒有設定master, 另外就是Spark SQL是需要和mysql一樣操作表的,所以需要連線mysql的驅動jar,因此命令如下:
./start-thriftserver.sh --master local[2] --jars ~/software/mysql-connector-java-5.1.38.jar
啟動完成之後可以在瀏覽器中進行檢視,是否啟動成功;在瀏覽器中輸入以下地址即可.(阿里雲伺服器需要開放安全組埠)
ip:4040
進入到下面頁面: 進入到這個頁面之後可以點選最右面的 JDBC/ODBC Server,會顯示你的啟動時間,表示 thriftserver已經啟動成功了;
2. 啟動beeline客戶端進行資料的操作:
啟動程式在bin目錄下,只需要輸入以下命令就會連線到資料庫:
./beeline -u jdbc:hive2://localhost:10000 -n hadoop
會出現以下操作介面: 出現這個介面就是表示客戶端連線成功!下面就是操作資料庫的操作,和mysql中一樣的;
./start-thriftserver.sh --master local[2] --jars ~/software/mysql-connector-java-5.1.38.jar \
--hiveconf hive.server2.thrift.port=14000
–hiveconf 就是修改埠的代表,因為預設的埠是10000,需要修改的話加上即可,對應的啟動客戶端埠也要進行修改:
./beeline -u jdbc:hive2://localhost:14000 -n hadoop