1. 程式人生 > >基於【CentOS-7+ Ambari 2.7.0 + HDP 3.0】HAWQ資料倉庫 使用之 gpfdist協議

基於【CentOS-7+ Ambari 2.7.0 + HDP 3.0】HAWQ資料倉庫 使用之 gpfdist協議

一、HAWQ基本安裝自帶gpfdist協議

gpfdist是HAWQ支援的外部表訪問協議之一,這是hawq自帶的一個簡單的整合http服務命令。

在我的前述安裝hawq之後,gpfdist命令位於hawq的bin目錄之中。/opt/gpadmin/apache-hawq/bin/gpfdist

gpfdist使用說明很簡單,且看:

[[email protected] ~]# /opt/gpadmin/apache-hawq/bin/gpfdist --help
gpfdist -- file distribution web server

usage: gpfdist [--ssl <certificates_directory>] [-d <directory>] [-p <http(s)_port>] [-l <log_file>] [-t <timeout>] [-v | -V] [-m <maxlen>][-c file
] gpfdist [-? | --help] | --version -?, --help : print this screen -v : verbose mode -V : more verbose -p port : port to serve HTTP(S), default is 8080 -d dir : serve files under the specified directory, default is '.' -l logfn : log filename
-t tm : timeout in seconds -m maxlen : max data row length expected, in bytes. default is 32768 --ssl dir : start HTTPS server. Use the certificates from the specified directory -c file : configuration file for transformations --version : print version information

這裡我只關心-d和-p兩個命令列引數

二、gpfdist服務簡單使用

1,啟動gpfdist服務

gpfdist不像pxf協議那麼麻煩,由於他只是服務於本機目錄,所以只要在資料目錄所在的主機上啟動gpfdist,hawq即可訪問了。

[[email protected] ~]# /opt/gpadmin/apache-hawq/bin/gpfdist -p8809 -d/var/data/ext
Serving HTTP on port 8809, directory /var/data/ext

2,準備資料檔案

1)建立本地路徑/var/data/ext/yxbw

2)路徑放置從hdfs檔案系統中複製過來的用sqoop從其他資料庫系統的資料表匯入的資料檔案,並且匯入時啟用了--compress引數,所以資料檔案是gz壓縮格式,這個gpfdist協議可以直接訪問。

[[email protected] pxf]# hdfs dfs -copyToLocal /var/data/ext/table1/* /var/data/ext/table1/. 
[[email protected] pxf]# ll /var/data/ext/table1/
總用量 152
-rw-r--r--. 1 root root 69503 9月  10 09:45 part-m-00000.gz
-rw-r--r--. 1 root root 41334 9月  10 09:45 part-m-00001.gz
-rw-r--r--. 1 root root 24035 9月  10 09:45 part-m-00002.gz
-rw-r--r--. 1 root root 14345 9月  10 09:45 part-m-00003.gz
-rw-r--r--. 1 root root     0 9月  10 09:45 _SUCCESS

3,建立hawq外部表

注意,gpfdist路徑中的table1路徑是相對於gpfdist服務啟動時通過引數"-d"指定的資料路徑的。

create external table ext.table1 (occur_time date, ......) location ('gpfdist://ep-bd01:8081/table1') format 'text'(delimiter ',' null '');    

4,訪問外部表

epbd=> select count(*) from ext.table1;
 count 
-------
  6288
(1 row)

Time: 258.015 ms

相關推薦

基於CentOS-7+ Ambari 2.7.0 + HDP 3.0搭建HAWQ數據倉庫之一 —— MariaDB 安裝配置

ola http iad com grant stop drive 數據庫 commit 一、安裝並使用MariaDB作為Ambari、Hive、Hue的存儲數據庫。 yum install mariadb-server mariadb 啟動、查看狀態,檢查mariad

基於CentOS-7+ Ambari 2.7.0 + HDP 3.0HAWQ資料倉庫 使用 gpfdist協議

一、HAWQ基本安裝自帶gpfdist協議 gpfdist是HAWQ支援的外部表訪問協議之一,這是hawq自帶的一個簡單的整合http服務命令。 在我的前述安裝hawq之後,gpfdist命令位於hawq的bin目錄之中。/opt/gpadmin/apache-hawq/bin/gpfdist gpfdist

基於CentOS-7+ Ambari 2.7.0 + HDP 3.0搭建HAWQ資料倉庫04 —— 安裝HAWQ外掛PXF3.3.0.0

一、 安裝PXF3.3.0.0,這裡所安裝的pxf的包檔案都包含在apache-hawq-rpm-2.3.0.0-incubating.tar.gz裡面下面步驟都是以root身份執行這裡注意,pxf外掛要用到tomcat服務,必須使用安裝包裡面的7.0.62, 不能安裝或升級為 tomcat8,這會造成依賴的

基於CentOS-7+ Ambari 2.7.0 + HDP 3.0搭建HAWQ資料倉庫02 ——使用ambari-server安裝HDP

本文記錄使用ambari-server安裝HDP的過程,對比於使用cloudera-manager安裝CDH,不得不說ambari的易用性差的比較多~_~,需要使用者介入的過程較多,或者說可定製性更高。 首先、安裝之前,在每個主機節點上執行下面命令,已清除快取,避免一些repo原因導致的安裝失敗。 yum

基於CentOS-7+ Ambari 2.7.0 + HDP 3.0搭建HAWQ資料倉庫01 —— 準備環境,搭建本地倉庫,安裝ambari

一、叢集軟硬體環境準備: 作業系統:  centos 7 x86_64.1804 Ambari版本:2.7.0 HDP版本:3.0.0 HAWQ版本:2.3.05臺PC作為工作站: ep-bd01 ep-bd02 ep-bd03 ep-bd04 ep-bd05

基於CentOS-7+ Ambari 2.7.0 + HDP 3.0搭建HAWQ資料倉庫——安裝配置OPEN-SSH,設定主機節點之間免密互訪

配置root使用者免密互訪(為了方便,各臺系統中使用統一的證書檔案)一、安裝Open-SSH 1,查詢系統中是否安裝了openssh [[email protected]]# opm -qa |grep ssh 如已安裝,則列出下面類似的軟體包 openssh-server-7.4p1-16.

基於CentOS-7+ Ambari 2.7.0 + HDP 3.0搭建HAWQ資料倉庫——作業系統配置,安裝必備軟體

注意未經說明,所有本文中所有操作都預設需要作為root使用者進行操作。 一、安裝zmodem,用於遠端上傳下載檔案,安裝gedit,方便重定向到遠端windows上編輯檔案(通過xlanuch) [[email protected]]# yum install lrzsz -y [[email

基於CentOS-7+ Ambari 2.7.0 + HDP 3.0搭建HAWQ資料倉庫03 —— 安裝HAWQ 2.3.0.0

一、 HAWQ2.3.0環境準備【全部主機節點】: 1, vim /etc/sysctl.conf,編輯如下內容: kernel.shmmax= 1000000000 kernel.shmmni= 4096 kernel.shmall= 4000000000 kernel.sem= 250 512000

基於CentOS-7+ Ambari 2.7.0 + HDP 3.0搭建HAWQ資料倉庫——安裝配置NTP服務,保證叢集時間保持同步

一、所有節點上使用yum安裝配置NTP服務yum install ntp -y 二、選定一臺節點作為NTP server, 192.168.58.11修改/etc/ntp.conf vim /etc/ntp.conf 1,註釋掉restrict 127.0.0.1 ,修改為: restrict 192

基於CentOS-7+ Ambari 2.7.0 + HDP 3.0搭建HAWQ資料倉庫 —— MariaDB 安裝配置

一、安裝並使用MariaDB作為Ambari、Hive、Hue的儲存資料庫。 yum install mariadb-server mariadb 啟動、檢視狀態,檢查mariadb是否成功安裝 systemctl start mariadb systemctl status mariadb 二、配置

CentOS-7+ Ambari 2.7.0 + HDP 3.0+HAWQ2.3.00遭遇問題及解決記錄

一、zookeeper超出最大連線限制:ambari server檢測到critical錯誤, zookeeper server on ep-bd01:2181 連線被積極拒絕,翻看主機上zookeeper的日誌 tail -n200 zookeeper-zookeeper-server-ep-bd01.ou

CentOS安裝python-2.7+安裝pip-10.0.0

files 預裝 path packages 編譯 onf block -s wget 註:以下所有操作均在CentOS 6.8 x86_64位系統下完成。 首先查看當前系統預裝的python版本: # whereis python python2: /usr

Centos升級Python 2.7並安裝pip、ipython

info bin ssl ber .cn update .com space rap https://www.cnblogs.com/technologylife/p/6242115.html Centos系統一般默認就安裝有Python2.6.6版本,不少軟件需要2.7以

基於ambari 2.4.1 HDP-2.5.0 構建安全的hive資料庫

基於ambari 2.4.1 HDP-2.5.0 構建安全的hive資料庫 基本條件: 1. 利用ambari 啟用kerberos 基本原理: hadoop 代理機制:hadoop 可以使用"超級"使用者,偽裝為其他使用者提交程式。且可以通過配置對被偽裝的使用者限定使用

ambari 2.7 編譯與安裝

1.環境準備 安裝好JDK,maven,ant,postgresql,以及nodejs,npm和bower。參見博主的相關部落格。注意部分元件的下載需要科學上網。 安裝rpm,rpm-build,git sudo yum install rpm sudo

編譯 ambari 2.7.3

com 這一 options .tar.gz 分享圖片 popd max test oca 官方給的教程比較簡單,需要事先安裝的工具也是這裏列一點,那裏列一點。在此記錄一下編譯要點(在 centos 7 下)。 1. 事先需要安裝的工具 yum install

File Cabinet Pro for Mac(Mac選單欄檔案管理器) V6.7.1(2.7.9)破解版

File Cabinet Pro for Mac是Mac平臺上一款非常簡潔的Mac選單欄檔案管理器,File Cabinet Pro Mac破解版不僅僅是一個選單欄檔案管理軟體,它還內建了文字編輯器、pdf檢視器、影象檢視器和媒體播放器等小功能,功能非常的強大。 File Cabinet Pro

原創資料基礎Spark(7)spark讀取檔案split過程(即RDD分割槽數量)

spark 2.1.1 spark初始化rdd的時候,需要讀取檔案,通常是hdfs檔案,在讀檔案的時候可以指定最小partition數量,這裡只是建議的數量,實際可能比這個要大(比如檔案特別多或者特別大時),也可能比這個要小(比如檔案只有一個而且很小時),如果沒有指定最小partition數量,初始化完成的

python爬取網頁包含動態js資訊(3.7 +,2.7+)

post_param = {'action': '', 'start': '0', 'limit': '1'} return_data =

Centos7.2.1511安裝Zabbix 3.0

linux centos7 zabbix Centos7.2.1511安裝Zabbix 3.0 先在虛擬機中安裝好CentOS 7.2.1511,並設置好IP,允許虛擬機聯網。查看系統版本 cat /etc/redhat-release 1.安裝MySQL從最新版本的linux系統開始,默認的是