1. 程式人生 > >SparkSQL和Hive整合

SparkSQL和Hive整合

-a. 啟動hive的metastore服務

[[email protected] ~]$ /opt/cdh-5.3.6/hive-0.13.1-cdh5.3.6/bin/hive --service metastore &

Q>

org.apache.thrift.transport.TTransportException: Could not create ServerSocket on address 0.0.0.0/0.0.0.0:9083.

        at org.apache.thrift.transport.TServerSocket.<init>(TServerSocket.java:93)
        at org.apache.thrift.transport.TServerSocket.<init>(TServerSocket.java:75)
        at org.apache.hadoop.hive.metastore.TServerSocketKeepAlive.<init>(TServerSocketKeepAlive.java:34)
        at org.apache.hadoop.hive.metastore.HiveMetaStore.startMetaStore(HiveMetaStore.java:5192)
        at org.apache.hadoop.hive.metastore.HiveMetaStore.main(HiveMetaStore.java:5134)
        at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
        at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57)
        at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
        at java.lang.reflect.Method.invoke(Method.java:606)
        at org.apache.hadoop.util.RunJar.main(RunJar.java:212)
Exception in thread "main" org.apache.thrift.transport.TTransportException: Could not create ServerSocket on address 0.0.0.0/0.0.0.0:9083.
        at org.apache.thrift.transport.TServerSocket.<init>(TServerSocket.java:93)
        at org.apache.thrift.transport.TServerSocket.<init>(TServerSocket.java:75)
        at org.apache.hadoop.hive.metastore.TServerSocketKeepAlive.<init>(TServerSocketKeepAlive.java:34)
        at org.apache.hadoop.hive.metastore.HiveMetaStore.startMetaStore(HiveMetaStore.java:5192)
        at org.apache.hadoop.hive.metastore.HiveMetaStore.main(HiveMetaStore.java:5134)
        at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
        at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57)
        at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
        at java.lang.reflect.Method.invoke(Method.java:606)

        at org.apache.hadoop.util.RunJar.main(RunJar.java:212)

[[email protected] ~]$ netstat -apn|grep 9083
(Not all processes could be identified, non-owned process info
 will not be shown, you would have to be root to see it all.)

tcp        0      0 0.0.0.0:9083                0.0.0.0:*                   LISTEN      6097/java

A>

[[email protected] ~]$ kill -9 6097

[[email protected]

~]$ /opt/cdh-5.3.6/hive-0.13.1-cdh5.3.6/bin/hive --service metastore &
[5] 6413
[[email protected] ~]$ Starting Hive Metastore Server

相關推薦

SparkSQLHive整合

-a. 啟動hive的metastore服務[[email protected] ~]$ /opt/cdh-5.3.6/hive-0.13.1-cdh5.3.6/bin/hive --service metastore &Q>org.apache.th

SparkSQLhive on Spark

SparkSQL簡介 SparkSQL的前身是Shark,給熟悉RDBMS但又不理解MapReduce的技術人員提供快速上手的工具,hive應運而生,它是當時唯一執行在Hadoop上的SQL-on-hadoop工具。但是MapReduce計算過程中大量的中間磁碟落地過程消耗了大量的I/O,降低的執行效率,為

ImpalaHive整合Sentry、Kerberos認證

關於 Kerberos 的安裝和 HDFS 配置 kerberos 認證,請參考 HDFS配置kerberos認證。 關於 Kerberos 的安裝和 YARN 配置 kerberos 認證,請參考 YARN配置kerberos認證。 關於 Kerberos 的安裝和 Hive 配置

sparksqlhive整合

編輯 $HIVE_HOME/conf/hive-site.xml,增加如下內容: Prettyprint程式碼   <property>    <name>hive.metastore.uris</name>    <value>thrift://ma

hbasehive整合實戰

hbase表對映到hive表中 1 在hbase中建立表: 表名hbase_test, 有三個列族 f1、f2、f3 create 'hbase_test',{NAME => 'f1',VERSIONS => 1},{NAME => 'f2',

ElasticSearchHive整合

oop 執行 nod last space property style pan mil 1、上傳elasticsearh-hadoop的jar包到server1-hadoop-namenode-01上 在server1-hadoop-namenode-01上執行:

SparkSQLHive整合

cto home 添加 usr onf cal apach local -c 其他的配置hive基本配置就不記錄了!! 1. 拷貝$HIVE_HOME/conf/hive-site.xml $SPARK_HOME/conf/2. 在$SPARK_HOME/conf/目錄

關於本人hbase整合sqoophive框架的遇到的那些坑

關於本人hbase整合sqoop和hive框架的遇到的那些坑   hbase: hbase-1.3.1-bin.tar.gz hive:apache-hive-1.2.2-bin.tar.gz 要實現的功能:實現建立hive表同時關聯到hbase在logs日誌查看出現異常資

hivehbase整合,Caused by: java.lang.ClassNotFoundException

Hive-1.2.1與HBase-1.1.2的整合 這裡的整合是指,將HBase作為儲存資料的庫,由Hive作為連線橋樑 在Hive中建立表時,出現了 FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.q

SparkSQL On Hivespark的記憶體分配問題

Spark On Hive   1.SparkSQL整合Hive,需將hive-site.xml複製到{SAPRK_HOME/conf}目錄下,即可!!   a.將hive-site.xml複製到{SAPRK_HOME/conf}目錄下;   b.將hi

hive整合sparkmysql

一、Hive安裝 1.Hive簡介 ​ Hive是Facebook開發的構建於Hadoop叢集之上的資料倉庫應用,可以將結構化的資料檔案對映為一張資料庫表,並提供完整的SQL查詢功能,可以將SQL語句轉換為MapReduce任務進行執行。

配置sparksqlhive,dataframeRDD,將RDD轉換成Dataframe,檢視,withcolumn

文章目錄 退出spark-shell 使用spark自帶檔案建立dataframe 退出安全模式 配置spark讀hive 1.pom檔案增加 2.resource下加檔案 3.修改h

Phoenix三貼之三:Phoenixhive整合

0.前期準備,偽分散式的hbase搭建(這裡簡單演示一下) Hbase的偽分散式安裝部署(使用三個程序

建立hivehbase整合表報錯原因之一

我的hive版本是apache-hive-1.2.1-bin.tar在hive裡建立hive和hbase整合表的內部表報錯資訊如下:FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.ex

hive學習教程(五):hiveHbase整合

一、Hive整合HBase原理 Hive與HBase整合的實現是利用兩者本身對外的API介面互相進行通訊,相互通訊主要是依靠hive-hbase-handler-0.9.0.jar工具類,如下圖 Hive與HBase通訊示意圖 二、具體步驟

springmvcjson整合配置方法

repl bin blank converter htm spring配置 tpm port 三方 配置方法一 1、導入第三方的jackson包,jackson-mapper-asl-1.9.7.jar和jackson-core-asl-1.9.7.jar。 2、spri

(十七)Hibnernate Spring 整合

blob ns-3 管理 comm wire support Coding jar包 jdbc 一、Hibnernate 和 Spring結合方案: 方案一: 框架各自使用自己的配置文件,Spring中加載Hibernate的配置文件。 方案二: 統一由Spri

SpringMvcMybatis整合總結

web images bean 技術 數據庫 tro control 自己 alt 1.先配置mybatis,測試讀取數據庫 2.自己測試數據 3.配置spring和springmvc, PS:配置web.xml,這樣就不用getBean了 4.配置Controlle

Spring+SpringMVC+MyBatis深入學習及搭建(十四)——SpringMVCMyBatis整合

文件拷貝 conf lips glib ide doc from ive body 轉載請註明出處:http://www.cnblogs.com/Joanna-Yan/p/7010363.html 前面講到:Spring+SpringMVC+MyBatis深入學習及搭建(

深入淺出JMS(四)--SpringActiveMQ整合的完整實例

訂閱 實例 schema -i 同步和異步 生產 技術分享 .com factor 第一篇博文深入淺出JMS(一)–JMS基本概念,我們介紹了JMS的兩種消息模型:點對點和發布訂閱模型,以及消息被消費的兩個方式:同步和異步,JMS編程模型的對象,最後說了JMS的優點。 第二