Hive2.1.1、Hadoop2.7.3 部署
本文以遠端模式安裝Hive2.1.1將hive的元資料放置在MySQL資料庫中。
1 安裝mysql資料庫
sudo apt-get install mysql-server
- 1
- 1
重啟mysql服務使得配置檔案生效
sudo service mysql restart
- 1
- 1
建立hive專用賬戶
CREATE USER 'hive'@'%' IDENTIFIED BY '123456';
- 1
- 1
給hive賬戶授予所有許可權
grant all privileges on *.* to 'hive'@'%' identified by '123456' with grant option ;
- 1
- 1
刷新系統許可權表,使配置生效
flush privileges;
- 1
- 1
2 解壓安裝hive
cd /usr/local
sudo tar -xvzf apache-hive-2.1.1-bin.tar.gz
sudo mv apache-hive-2.1.1-bin/ hive-2.1.1
- 1
- 2
- 3
- 1
- 2
- 3
配置系統環境變數
sudo gedit .bashrc
export HIVE_HOME=/usr/local/hive-2.1.1
exportPATH=$HIVE_HOME/bin:$HIVE_HOME/lib:$PATH
- 1
- 2
- 3
- 1
- 2
- 3
使得環境變數配置生效
source .bashrc
- 1
- 1
3 配置hive
3.1 修改conf/hive-env.sh檔案
cd /usr/local/hive-2.1.1/conf/
sudo cp hive-env.sh.template hive-env.sh
sudo chown hadoop:hadoop hive-env.sh
sudo vi hive-env.sh
HADOOP_HOME=/usr/local/hadoop-2.7.3
export HIVE_CONF_DIR=/usr/local/hive-2.1.1/conf
export HIVE_AUX_JARS_PATH=/usr/local/hive-2.1.1/lib
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 1
- 2
- 3
- 4
- 5
- 6
- 7
3.2 修改日誌屬性檔案配置日誌儲存目錄
修改hive-log4j2.properties
sudo cp hive-log4j2.properties.template hive-log4j2.properties
sudo chown hadoop:hadoop hive-log4j2.properties
sudo vi hive-log4j2.properties
property.hive.log.dir = /usr/local/hive-2.1.1/logs
- 1
- 2
- 3
- 4
- 1
- 2
- 3
- 4
修改llap-cli-log4j2.properties
property.hive.log.dir = /usr/local/hive-2.1.1/logs
property.hive.log.file = llap-cli.log
- 1
- 2
- 1
- 2
3.3 修改hive-site.xml配置檔案,主要修改如下配置專案
<property>
<name>hive.exec.local.scratchdir</name>
<value>/usr/local/hive-2.1.1/tmp</value>
<description>Local scratch space for Hive jobs</description>
</property>
<property>
<name>hive.downloaded.resources.dir</name>
<value>/usr/local/hive-2.1.1/tmp/${hive.session.id}_resources</value>
<description>Temporary local directory for added resources in the remote file system.</description>
</property>
<property>
<name>hive.querylog.location</name>
<value>/usr/local/hive-2.1.1/logs</value>
<description>Location of Hive run time structured log file</description>
</property>
<property>
<name>hive.server2.logging.operation.log.location</name>
<value>/usr/local/hive-2.1.1/logs</value>
<description>Top level directory where operation logs are stored if logging functionality is enabled</description>
</property>
<property>
<name>hive.metastore.warehouse.dir</name>
<value>/usr/hive/warehouse</value>
<description>location of default database for the warehouse</description>
</property>
<property>
<name>hive.metastore.uris</name>
<value>thrift://192.168.80.130:9083</value>
<description>Thrift URI for the remote metastore. Used by metastore client to connect to remote metastore.</description>
</property>
<property>
<name>hive.exec.scratchdir</name>
<value>/tmp/hive</value>
<description>HDFS root scratch dir for Hive jobs which gets created with write all (733) permission. For each connecting user, an HDFS scratch dir: ${hive.exec.scratchdir}/<username> is created, with ${hive.scratch.dir.permission}.</description>
</property>
<property>
<name>hive.exec.local.scratchdir</name>
<value>/usr/local/hive-2.1.1/tmp</value>
<description>Local scratch space for Hive jobs</description>
</property>
<property>
<name>hive.downloaded.resources.dir</name>
<value>/usr/local/hive-2.1.1/tmp/${hive.session.id}_resources</value>
<description>Temporary local directory for added resources in the remote file system.</description>
</property>
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://192.168.80.130:3306/metastore?createDatabaseIfNotExist=true&useSSL=false</value>
<description>
JDBC connect string for a JDBC metastore.
To use SSL to encrypt/authenticate the connection, provide database-specific SSL flag in the connection URL.
For example, jdbc:postgresql://myhost/db?ssl=true for postgres database.
</description>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
<description>Driver class name for a JDBC metastore</description>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>hive</value>
<description>Username to use against metastore database</description>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>123456</value>
<description>password to use against metastore database</description>
</property>
<property>
<name>hive.hwi.listen.host</name>
<value>0.0.0.0</value>
<description>This is the host address the Hive Web Interface will listen on</description>
</property>
<property>
<name>hive.hwi.listen.port</name>
<value>9999</value>
<description>This is the port the Hive Web Interface will listen on</description>
</property>
<property>
<name>hive.server2.thrift.bind.host</name>
<value>0.0.0.0</value>
<description>Bind host on which to run the HiveServer2 Thrift service.</description>
</property>
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- 10
- 11
- 12
- 13
- 14
- 15
- 16
- 17
- 18
- 19
- 20
- 21
- 22
- 23
- 24
- 25
- 26
- 27
- 28
- 29
- 30
- 31
- 32
- 33
- 34
- 35
- 36
- 37
- 38
- 39
- 40
- 41
- 42
- 43
- 44
- 45
- 46
- 47
- 48
- 49
- 50
- 51
- 52
- 53
- 54
- 55
- 56
- 57
- 58
- 59
- 60
- 61
- 62
- 63
- 64
- 65
- 66
- 67
- 68
- 69
- 70
- 71
- 72
- 73
- 74
- 75
- 76
- 77
- 78
- 79
- 80
- 81
- 82
- 83
- 84
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- 10
- 11
- 12
- 13
- 14
- 15
- 16
- 17
- 18
- 19
- 20
- 21
- 22
- 23
- 24
- 25
- 26
- 27
- 28
- 29
- 30
- 31
- 32
- 33
- 34
- 35
- 36
- 37
- 38
- 39
- 40 <
相關推薦
Hive2.1.1、Hadoop2.7.3 部署
本文以遠端模式安裝Hive2.1.1將hive的元資料放置在MySQL資料庫中。 1 安裝mysql資料庫 sudo apt-get install mysql-server11 重啟mysql服務使得配置檔案生效 sudo service mysql restart11 建立hive專用賬
【原創 Spark動手實踐 1】Hadoop2.7.3安裝部署實際動手
dmi 遠程 nag proc host 一個 error img 連接 目錄: 第一部分:操作系統準備工作: 1. 安裝部署CentOS7.3 1611 2. CentOS7軟件安裝(net-tools, wget, vim等) 3. 更新CentOS
ceontos 7.3 部署 ceph12.1.1
ceph12ceontos 7.3 部署 ceph12.1.1#http://docs.ceph.com/docs/master/start/quick-ceph-deploy/#create-a-cluster參考官方手冊即可。碰到幾個問題和一些優化的地方,記錄如下:1、yum 源。 海外源特別慢,故使用
最小化安裝 CentOS 7.3 部署 Cacti-1.1.23 詳細步驟
cacti centos Cacti 是一個利用 RRDTool 數據存儲和繪圖功能的完整的網絡圖形解決方案。Cacti 提供了快速的數據輪詢、高級圖形模板、多樣的數據獲取方法以及用戶管理等功能。並以直觀易於使用的接口來呈現,這在具有成千上萬個設備的復雜網絡上是有意義的。一、安裝環境安裝 Cac
大資料學習環境搭建(CentOS6.9+Hadoop2.7.3+Hive1.2.1+Hbase1.3.1+Spark2.1.1)
node1192.168.1.11node2192.168.1.12node3192.168.1.13備註NameNodeHadoopYY高可用DateNode YYYResourceManager YY高可用NodeManagerYYYJournalNodes YYY奇數個,至少3個節點ZKFC(DFSZK
Spark之——Hadoop2.7.3+Spark2.1.0 完全分散式環境 搭建全過程
一、修改hosts檔案在主節點,就是第一臺主機的命令列下;vim /etc/hosts我的是三臺雲主機:在原檔案的基礎上加上;ip1 master worker0 namenode ip2 worker1 datanode1 ip3 worker2 datanode2其中的i
在VM虛擬機器上搭建Hadoop2.7.3+Spark2.1.0完全分散式叢集
1.選取三臺伺服器(CentOS系統64位) 114.55.246.88主節點 114.55.246.77 從節點 114.55.246.93 從節點 之後的操作如果是用普通使用者操作的話也必須知道root使用者的密碼,因為有些操作是得
hadoop學習1--hadoop2.7.3叢集環境搭建
下面的部署步驟,除非說明是在哪個伺服器上操作,否則預設為在所有伺服器上都要操作。為了方便,使用root使用者。 1.準備工作 1.1 centOS7伺服器3臺 master 192.168.174.132 node1
hadoop2.7.3完全分散式安裝-docker-hive1.2.1-hiveserver2-weave1.9.3
0.環境介紹: 1)ubuntu14.04 docker映象 地址:https://github.com/gaojunhao/ubuntu14.04 2)hadoop2.7.3 地址:http://www.apache.org/dyn/closer.cgi/hadoop/c
Hadoop2.7.3+Spark2.1.0完全分散式叢集搭建過程
1.選取三臺伺服器(CentOS系統64位) 114.55.246.88 主節點 114.55.246.77 從節點 114.55.246.93 從節點 之後的操作如果是用普通使用者操作的話也必須知道root使用者的密碼,因為有些操作是得用root使用者操作。如
【Hadoop】Hadoop2.7.3安裝Hive 2.1.0
第一步: 下載最新的hive,直接去apache 裡面找hive2.1.0下載就行。 第二步,解壓到伺服器 tar zxvf apache-hive-2.0.0-bin.tar.gz mv apache-hive-2.0.0-bin /hom
配置MapReduce插件時,彈窗報錯org/apache/hadoop/eclipse/preferences/MapReducePreferencePage : Unsupported major.minor version 51.0(Hadoop2.7.3集群部署)
ava 不一致 nbsp 1.0 log class dll blog 無效 原因: hadoop-eclipse-plugin-2.7.3.jar 編譯的jdk版本和eclipse啟動使用的jdk版本不一致導致。 解決方案一: 修改myeclipse.ini文件
hadoop2.7.3在centos7上部署安裝(單機版)
hadoop2.7.3在centos7上部署安裝(單機版) (1)hadoop2.7.3下載 (前提:先安裝java環境) 下載地址:http://hadoop.apache.org/releases.html (注意是binary檔案,source那個是原始
hadoop2.7.3編譯,支援snappy、bzip2本地壓縮
軟體包: apache-ant-1.9.9-bin.tar.gz apache-maven-3.3.9-bin.tar.gz apache-tomcat-6.0.44.tar.gz CentOS-6.9-x86_64-minimal.iso findbugs-3.0.1.tar.gz hado
hbase1.2.3+zookeeper3.4.9+hadoop2.7.3完全分散式部署遇到的問題
啟動start-hbase.sh 後hbase沒有啟動 檢視日誌如下: ERROR [main] master.HMasterCommandLine: Master exiting java.io.IOException: Could not start ZK with 3
1.2、CentOS 7 安裝 Docker
Docker 安裝 1、CentOS 7 安裝 Docker CE 官網:https://docs.docker.com/install/linux/docker-ce/centos/ Docker支援以下的CentOS版本: CentOS 7 (64-bit) C
Hadoop2.7.3搭建單機、偽分佈環境
1.下載jdk並安裝去官網下就可以了,下完之後把檔案移到/opt/Java下[email protected]:~/下載$ mv ./hadoop-2.7.2-src.tar.gz /opt/
【原創 Hadoop&Spark 動手實踐 3】Hadoop2.7.3 MapReduce理論與動手實踐
pack license 讀取 rgs 理論 程序員開發 -s 接口 pri 開始聊MapReduce,MapReduce是Hadoop的計算框架,我學Hadoop是從Hive開始入手,再到hdfs,當我學習hdfs時候,就感覺到hdfs和mapreduce關系的緊密。這個
Centos7完全分布式搭建Hadoop2.7.3
.com 密碼 hist gif apach sys cat 設置 blank (一)軟件準備 1,hadoop-2.7.3.tar.gz(包) 2,三臺機器裝有cetos7的機子 (二)安裝步驟 1,給每臺機子配相同的用戶 進入root : su root
Centos7+hadoop2.7.3+jdk1.8
測試 master dfs- dfs con ssp 必須 加載 lib 修改主機名 1. 修改主機名 vi /etc/sysconfig/network ,改為 master , slave1 , slave2 2. source /etc/sy