1. 程式人生 > >原生 Hive 1.2.1 的安裝

原生 Hive 1.2.1 的安裝

1、下載hive 1.2.1

$HADOOP_HOME/bin/hadoop fs -mkdir /tmp
$HADOOP_HOME/bin/hadoop fs -mkdir /user/hive/warehouse
$HADOOP_HOME/bin/hadoop fs -chmod g+w /tmp
$HADOOP_HOME/bin/hadoop fs -chmod g+w /user/hive/warehouse

5、建立mysql資料庫的使用者 hive

[root@slave1 ~]# mysql -uhive -phive
mysql> create database hive ; 
mysql> grant all on
hive.* to [email protected]'%' identified by 'hive' ;

6、在hive-site.xml中新增mysql配置

<property>
  <name>javax.jdo.option.ConnectionDriverName</name>
  <value>com.mysql.jdbc.Driver</value>
  <description>Driver class name for a JDBC metastore</description>
</property
>
<property> <name>javax.jdo.option.ConnectionURL</name> <value>jdbc:mysql://192.168.150.31:3306/hive?createDatabaseIfNotExist=true</value> <description>JDBC connect string for a JDBC metastore</description> </property> <property> <name>javax.jdo.option.ConnectionUserName</name
>
<value>hive</value> <description>username to use against metastore database</description> </property> <property> <name>javax.jdo.option.ConnectionPassword</name> <value>hive</value> <description>password to use against metastore database</description> </property> <property> <name>hive.downloaded.resources.dir</name> <value>/tmp/hive/resources</value> <description>Temporary local directory for added resources in the remote file system.</description> </property> <property> <name>hive.exec.local.scratchdir</name> <value>/tmp/hive/local</value> <description>modify 2016-12-22</description> </property> <property> <name>hive.exec.local.scratchdir</name> <value>/tmp/hive/local</value> <description>modify 2016-12-22</description> </property>

7、啟動hive
啟動HDFS
/home/hadoop/hadoop2/sbin/start-dfs.sh
啟動YARN
/home/hadoop/hadoop2/sbin/start-yarn.sh
啟動HIVE
/home/hadoop/hive12/bin/hive

相關推薦

原生 Hive 1.2.1安裝

1、下載hive 1.2.1 $HADOOP_HOME/bin/hadoop fs -mkdir /tmp $HADOOP_HOME/bin/hadoop fs -mkdir /user/hi

apache-hive-1.2.1-bin 安裝

apache-hive-1.2.1-bin 安裝 更多資源:https://github.com/opensourceteams 技能標籤 下載apache hive 安裝包 進行apache-hive-1.2.1-bin.tar.gz安裝 配置mysql儲存

Hive 1.2.1安裝部署

java.sql.SQLException: Unable to open a test connection to the given database. J                                                                          

Hive-1.2.1遠端模式的安裝和配置

準備工作 1.搭建好的Hadoop分散式系統 2.apache-hive-1.2.1-bin.tar.gz和mysql-connerctor-java-5.1.43-bin.jar 在mysql資料庫上建立hive資料庫用於儲存hive元資料

Hive 1.2.1 安裝測試

1 安裝MySQL 安裝伺服器: sudo apt-get install mysql-server (注意:期間需要設定root使用者的密碼喲) 安裝客戶端: sudo apt-get install mysql-client sud

Hivehive-1.2.1 + hadoop 2.7.4 叢集安裝

一、 相關概念Hive Metastore有三種配置方式,分別是:Embedded Metastore Database (Derby) 內嵌模式Local Metastore Server 本地元儲存Remote Metastore Server 遠端元儲存1.1 Meta

【轉載】Hadoop 2.7.3 和Hbase 1.2.4安裝教程

啟動 運行 property new rop net 文本文 .tar.gz cor 轉載地址:http://blog.csdn.net/napoay/article/details/54136398 目錄(?)[+] 一、機器環境

從零開始搭建系統1.2——Nginx安裝及配置

clas target nginx 1.2 targe nginx安裝 ref href 從零開始 從零開始搭建系統1.2——Nginx安裝及配置從零開始搭建系統1.2——Nginx安裝及配置

influxDB 1.2版本安裝

influxdb 1.2 web 客戶端 安裝 InfluxDB從1.3開始取消自帶的web頁面,這給很多人帶來不便,尤其是剛接觸InfluxDB的同學。 這裏提供在CentOS上基於rpm的安裝方式。 版本 InfluxDB 1.2.4 CentOS 7 1、下載RPM包 wget

1.2環境安裝「深入淺出ASP.NET Core系列」

ros targe 1.2 閱讀 www. 學習 環境安裝 bsp microsoft 官網 在介紹安裝環境之前,先介紹周邊信息,比如微軟net官網。 https://www.microsoft.com/net 這個網站是學習微軟技術棧比較權威的地方,包

基於CM搭建的CDH叢集之hive元件升級過程(hive0.13.1升級到hive-1.2.1且確保納入CM管理)

  1、在hive0.13.1版本下建立lib121目錄 cd /opt/cloudera/parcels/CDH/lib/hive;mkdir lib121 2、下載hive1.2.1版本,並將該版本lib下所有檔案拷貝到lib121中 3、修改/opt/cloudera/par

[KairosDB] CentOS7 安裝KairosDB-1.2.1

1. 系統環境: OS:CentOS7.3 Java:JDK8 Cassandra:cassandra-3.10 2. 安裝KairosDB 2.1 下載解壓 [[email 

CDH 5.3.9(parcels)叢集中hive0.13.0升級到hive-1.2.1步驟全,升級hive元資料庫,資料不丟失

2.將安裝包傳到叢集所有節點上 3.所有節點root使用者下  cd /opt/cloudera/parcels/CDH/lib/hive mkdir lib121 5.所有節點將解壓出來hive/lib下所有檔案拷貝到lib121 6.Coudera 介面

Spark 2.4.0 整合Hive 1.2.1

Spark 2.4.0 整合Hive 1.2.1 更多資源 github: https://github.com/opensourceteams/spark-scala-maven-2.4.0 apache-hive-1.2.1-bin 安裝: https://gith

測試hadoop-1.2.1是否成功安裝和配置

本文說明hadoop安裝之後驗證安裝和配置的方法,hadoop-1.2.1安裝方法參考:hadoop安裝成功之後,要簡單驗證是否成功安裝和配置,在hadoop-1.2.1安裝方法詳解教程中,已經通過jps命令簡單的驗證,這裡通過執行MapReduce作業統計單詞來進一步驗證

presto-0.147+postgresql-9.5.3+msql-5.0.7+hadoop-2.5.2+hive-1.2.1環境構築以及測試

背景 每個支援SQL的資料庫,都有一個強大的SQL引擎。 而對於SQL引擎,基本都是大同小異的,負責SQL文法解析,語意分析,指定查詢樹,優化查詢樹,再到最終的執行,客戶端返回結果。 而presto的也跟一般的是一樣的。 架構如下: 準備 1.postgresql-9.5

centos7 + hadoop 1.2.1基本安裝配置

本節所講的hadoop基本安裝配置主要包含三部分內容: 單機 偽分佈 全分佈 本次實驗環境所用的作業系統為centos7,在進行安裝之前,我們首先要做以下準備工作: 1.建立hadoop使用者 為方便操作我們建立一個名為hadoop的使用者來執行程式,這樣可以使得不同使用者

kettle 5.1.0 連線 Hadoop hive 2 (hive 1.2.1)

1. 配置HiveServer2,在hive-site.xml中新增如下的屬性 <property>     <name>hive.server2.thrift.bind.host</name>     <value>192.

Ubuntu 16.04下安裝Cuda 8.0, Anaconda 4.4.0和TensorFlow 1.2.1

原文連結:http://blog.csdn.net/jinzhuojun/article/details/77140806 Cuda 如果配了Nvidia卡的,可以考慮安裝Cuda,這樣之後可以用GPU加速。之前寫過一篇在Ubuntu 14.04上裝Cuda 7.5的文章(

ElasticSearch應用入門系列 1.2 JDK安裝配置

因為ES是依賴java的所以需要JDK,關於ES版本對應的JDK版本請看 https://www.elastic.co/support/matrix#matrix_jvm ~~第一個小坑: 官網說 ES6.3支援java10,我最開始在 win10 安裝