1. 程式人生 > >hive2.2.1安裝

hive2.2.1安裝

1下載hive 安裝包 2hive_home/conf cp hive-default.xml.templatehive-site.xml 把所有模板都改成去掉template的配置檔案 3修改hive-env.sh export HIVE_CONF_DIR=/app/apache-hive-2.1.1-bin/conf
export HADOOP_HOME=/app/hadoop-2.7.3
export JAVA_HOME=/app/jdk1.8.0_131
修改hive-site.xml hive.metastore.uris屬性設定為thrift://localhost:9083
修改javax.jdo.option.ConnectionURL屬性為:

jdbc:mysql://localhost:3306/hive?createDatabaseIfNotExist=true
修改javax.jdo.option.ConnectionDriverName為:
com.mysql.jdbc.Driver 修改mysql 使用者名稱密碼 <property>     <name>javax.jdo.option.ConnectionUserName</name>
    <value>root</value>
    <description>Username to use against metastore database</description>
  </property>
<property>
    <name>javax.jdo.option.ConnectionPassword</name>
    <value>123456</value>
    <description>password to use against metastore database</description>
  </property>
<property>
    <name>hive.exec.scratchdir</name>
    <value>/tmp/hive</value>
    <description>HDFS root scratch dir for Hive jobs which gets created with write all (733) permission. For each connecting user, an HDFS scratch dir: ${hive.exec.scratchdir}/&lt;username&gt; is created, with ${hive.scratch.dir.permission}.</description>
  </property>   <property>
    <name>hive.exec.local.scratchdir</name>
    <value>/tmp/hive/local</value>
    <description>Local scratch space for Hive jobs</description>
  </property>   <property>
    <name>hive.downloaded.resources.dir</name>
    <value>/tmp/hive/resources</value>
    <description>Temporary local directory for added resources in the remote file system.</description>
  </property> 注意:上面配置的路徑都要有寫許可權 網上下載mysql 驅動jar包mysql-connector-java-5.1.18-bin.jart拷貝到hive_home/lib下面(版本不一定) 可以在hive-site.xml中關閉驗證功能

  <name>hive

.metastore.schema.verification</name>

  <value>false</value>

   
 <property>
    <name>hive.server2.thrift.bind.host</name>
    <value>10.202.43.135</value>
    <description>Bind host on which to run the HiveServer2 Thrift service.</description>
  </property>


下載mysql的連線jar包,放到hive_home/lib目錄下 進入mysql  create database hive 初始化hive,在hive_home/bin目錄下執行命令: ./schematool -dbType mysql -initSchema
如果出現連線資料庫失敗,可參考http://blog.csdn.net/cottonduke/article/details/52917214 啟動hive metadata nohup  hive --service metastore &

相關推薦

hive2.2.1安裝

1下載hive 安裝包 2hive_home/conf cp hive-default.xml.templatehive-site.xml 把所有模板都改成去掉template的配置檔案 3修改hive-env.sh export HIVE_CONF_DIR=/app

(轉) Hadoop1.2.1安裝

安裝目錄 文件復制 reduce mat 數據保存 jdk1.7 mapreduce tput cat 環境:ubuntu13 使用的用戶為普通用戶。如:用戶ru jdk安裝略 1、安裝ssh (1) Java代碼 sudo apt-get install op

nagios客戶端之nrpe3.2.1安裝

init nagios插件 源碼 load 啟動 files plugin ubunt tar.gz 1、刪除dpkg安裝的nrpedpkg -l | grep nrpedkpg -P nagios-nrpe-server 2、ubuntu下nrpe3.2.1安裝 下載nr

zabbix3.2.1安裝graphtrees插件

上下 官網 apach zabbix3.2 nload 直接 aik alt 下載 https://blog.csdn.net/liang_baikai/article/details/53542317 graphtree介紹 由於zabbix的圖像顯示一塊不太友好,圖像沒

在CDH上用外部Spark2.2.1安裝和配置 CarbonData

表示 相關 iyu top arch slaves path 中央倉庫 tar -zcvf 在CDH上用外部Spark2.2.1 (hadoop free版本)standalone 模式安裝和配置 CarbonData ===================

Android Studio 3.2.1安裝問題解決辦法

由於公司設定代理伺服器,導致安卓工程一直停留在gradle中迴圈,解決辦法如下: 修改兩個檔案,在目錄C:\Users\Administrator.20181015CSB\.gradle下: gradle.properties init.gradle 其中: 【gradle.

elasticsearch 5.2.1安裝問題解答

1、啟動 elasticsearch 如出現異常  can not run elasticsearch as root   解決方法:建立ES 賬戶,修改資料夾 檔案 所屬使用者 組 2、啟動異常:ERROR: bootstrap checks failed syst

安裝msyql的情況下為php7.2.1安裝mysqli擴充套件

環境為新的阿里雲ECS雲主機,沒有事先編譯安裝mysql,也沒有事先yum安裝mysql。 在編譯安裝php7.2.1完成後,發現mysqli擴充套件沒有安裝。 解決辦法為進入到php7.2.1原始碼包( 實際路徑可能不同): cd /mnt/soft/php-7.2.1/ext

hadoop 1.2.1 安裝步驟 偽分散式

最近在系統的學習hadoop 課程第一步是安裝hadoop1.x,具體安裝步驟如下: 一、系統安裝 本文使用centos6.5安裝,具體安裝步驟省略 二、jdk安裝 下載jdk1.7.0_51解壓,在環境中 設定環境變數: vi /etc/profile,新增如下行: export JAVA_HOME=/u

Ambari 2.1安裝HDP2.3.2 之 六、安裝部署HDP叢集 詳細步驟

六、安裝部署HDP叢集 瀏覽器訪問 http://master:8080,進入amabri登入頁面,使用者名稱:admin,密碼: admin 選擇 Launch Install Wizard: 1. Get started 給叢集起個名字

Hive 2.1 安裝

安裝Hive2.1 1. 準備工作:安裝JDK、Hadoop 2. 下載並解壓Hive,設定環境變數 HIVE_HOME、PATH 3. 設定Hadoop環境變數 ./hadoop fs -mkdir /tmp ./hadoop fs -mkdir /usr/hive/w

Hive2.2.0安裝

來源:http://www.cnblogs.com/hmy-blog/p/6506417.html 一、Hive 執行模式 與 Hadoop 類似,Hive 也有 3 種執行模式: 1. 內嵌模式 將元資料儲存在本地內嵌的 Derby 資料庫中,這是使用 Hive

Amabri 2.1安裝HDP2.3.2 之 一、HDP介紹

一、HDP (一)簡介 HDP全稱是Hortonworks Data Platform,是由一家美國大資料公司Hortonworks開發的企業級Hadoop平臺。 Hortonworks致力於幫助客戶利用Hadoop開源大資料平臺管理資料。HDP是完全

hive1.2.1安裝指南

Hive安裝指南        該文件是建立在已經安裝好hadoop和jdk的基礎上,並且已經設定好HADOOP_HOME環境變數以及JAVA_HOME環境變數, 在hadoop機群的主節點(192.168.22.135)上安裝。 1      下載安裝包     從htt

nutch2.2.1安裝部署

Enough has changed from Nutch 2.1 to Nutch 2.2 to warrant an update to the installation instructions. These instructions assume Ubuntu 12.04 and Java

Hive 1.2.1安裝部署

java.sql.SQLException: Unable to open a test connection to the given database. J                                                                          

Hive 1.2.1 安裝測試

1 安裝MySQL 安裝伺服器: sudo apt-get install mysql-server (注意:期間需要設定root使用者的密碼喲) 安裝客戶端: sudo apt-get install mysql-client sud

Hive1.2.1安裝和使用(基於Hadoop2.6.0)

安裝hive,這裡使用mysql作為hive的metastore; Ubuntu 15.10虛擬機器中安裝mysql方法請看:http://kevin12.iteye.com/admin/blogs/2280771Hadoop2.6.0叢集安裝:http://kevin12

Amabri 2.1安裝HDP2.3.2 之 二、需求配置說明

二、需求配置說明 Ambari 安裝hortonworks相應ambari版本可以支援的hdp版本如下: 圖2.0 我們選擇的是ambari2.1.2,hdp是2.3.2.0 此時我們準備好一臺純淨虛擬機器作為master機,完整克隆出兩臺slave

Zabbix3.2.1安裝配置及過程中遇到的問題說明

Zabbix是一款開源得監控軟體,我們可以根據自己的需要下載原始碼並對其二次開發以達到我們想要的功能。 下面說一下zabbix的原始碼安裝的步驟和安裝過程中遇到的問題以及解決辦法。 zabbix安裝完成後中文支援的配置,fping的支援,以及一些其他外掛