1. 程式人生 > >hive元資料從mysql遷移到oracle

hive元資料從mysql遷移到oracle

Stop Hive MetaStore and Hive Server

sudo service hive-metastore stop

sudo service hive-server2 stop

Dump myql資料

執行指令碼 : sh mysql_export.sh,
匯出結果檔案為data2.sql

資料灌入Oracle

拷貝data2.sql檔案到oracle匯入目錄,執行資料匯入程式
sqlplus meta_store/[email protected] @load.sql

修改hive metastore為oracle

/etc/hive/conf/ hive-site.xml

  <property>
    <name>javax.jdo.option.ConnectionURL</name>
    <value>jdbc:oracle:thin:@10.20.19.78:1521:jztest</value>
    <description>the URL of the MySQL database</description>
  </property>
  <property>
    <name>javax.jdo.option.ConnectionDriverName</name
>
<value>oracle.jdbc.driver.OracleDriver</value> </property> <property> <name>javax.jdo.option.ConnectionUserName</name> <value>META_STORE</value> </property> <property> <name>javax.jdo.option.ConnectionPassword</name
>
<value>paic1234</value> </property>

Start Hive MetaStore and Hive Server

sudo service hive-metastore start

sudo service hive-server2 start

Database data check

mysql 資料查詢

mysql -u hive -phive -h datanode3 –database=metastore -e “select ‘CDS’,COUNT(1) from CDS t UNION ALL
select ‘SDS’,COUNT(1) from SDS t UNION ALL
select ‘TBLS’,COUNT(1) from TBLS t UNION ALL
select ‘PARTITIONS’,COUNT(1) from PARTITIONS t UNION ALL
select ‘FUNCS’,COUNT(1) from FUNCS t”

oracle資料查詢
進入sqlplus,查詢

select ‘CDS’,COUNT(1) from CDS t UNION ALL
select ‘SDS’,COUNT(1) from SDS t UNION ALL
select ‘TBLS’,COUNT(1) from TBLS t UNION ALL
select ‘PARTITIONS’,COUNT(1) from PARTITIONS t UNION ALL
select ‘FUNCS’,COUNT(1) from FUNCS t

Schema備註

  • SDS表中欄位 IS_STOREDASSUBDIRECTORIES NUMBER(1) NOT NULL CHECK (IS_STOREDASSUBDIRECTORIES IN (1,0))在表中順序在mysql schema和oracle schema不同,在遷移資料的時候需要特殊處理。

說明

  • 在遷移過程中,mysql metastore會停止,dba如果支援的話,是否可以考慮設定為只讀模式。
  • 資料匯入Oracle的過程還是很慢,使用了Append,Nologging,PL/SQL等技術優化,看dba支援吧。

相關推薦

hive資料mysql遷移oracle

Stop Hive MetaStore and Hive Server sudo service hive-metastore stop sudo service hive-server2 stop Dump myql資料 執

(三)Hive資料資訊對應MySQL資料庫表

(三)Hive元資料資訊對應MySQL資料庫表   目錄 概述 一、儲存Hive版本的元資料表(VERSION) 二、Hive資料庫相關的元資料表(DBS、DATABASE_PARAMS) 1、DBS 2、DATABASE_P

【JEECG示例文件】使用Kettlemysqloracle中抽取資料

分享一下我老師大神的人工智慧教程!零基礎,通俗易懂!http://blog.csdn.net/jiangjunshow 也歡迎大家轉載本篇文章。分享知識,造福人民,實現我們中華民族偉大復興!        

把kafka資料hbase遷移到hdfs,並按天載入到hive表(hbase與hadoop為不同叢集)

需求:由於我們用的阿里雲Hbase,按儲存收費,現在需要把kafka的資料直接同步到自己搭建的hadoop叢集上,(kafka和hadoop叢集在同一個區域網),然後對接到hive表中去,表按每天做分割槽 一、首先檢視kafka最小偏移量(offset) /usr/local/kafka/bin/k

利用sqoop指定列指定條件的方式將資料mysql中增量匯入hive表中

========1、sqoop增量(指定列指定條件的方式增量匯入hive表中)匯入hive指令碼======= #!/bin/bash #Set the RDBMS connection params rdbms_ip=$1 rdbms_connect="jdbc:mysq

scoop匯入資料mysqlhive

mysql裡的表格式: desc track_log18;CREATE TABLE `track_log18` (   `id` varchar(1000) DEFAULT NULL,   `url` varchar(5000) DEFAULT NULL,   `refer

資料mysql中匯入hive表中異常解決:

將資料從mysql中匯入hive表中,出現異常ERROR hive.HiveConfig: Could not load org.apache.hadoop.hive.conf.HiveConf.

資料(十八):Hive資料配置、常見屬性配置、資料型別與資料轉換

一、Hive元資料配置到MySQL當中         為什麼要把Hive的元資料配置到MySql中?我們可以使用多個客戶端連線linux系統並且都嘗試啟動Hive,可以發現在啟動第二個Hive客戶端的時候發生報錯了。   

JSON資料OSS遷移到MaxCompute最佳實踐

本文為您介紹如何利用DataWorks資料整合將JSON資料從OSS遷移到MaxCompute,並使用MaxCompute內建字串函式GET_JSON_OBJECT提取JSON資訊。 資料上傳OSS 將您的JSON檔案重新命名字尾為TXT檔案,並上傳到OSS。本文中使用的JSON檔案示例如下。

JSON資料MongoDB遷移到MaxCompute最佳實踐

資料及賬號準備 首先您需要將資料上傳至您的MongoDB資料庫。本例中使用阿里雲的 雲資料庫 MongoDB 版,網路型別為VPC(需申請公網地址,否則無法與DataWorks預設資源組互通),測試資料如下。 { "store": {

Atlas匯入Hive資料

1、設定hive-site.xml ; <property> <name>hive.exec.post.hooks</name> <

SparkSql將資料來源Hive資料匯入MySql例項

背景:能看到這篇部落格的夥計兒,應該是充分理解了[理想是豐滿的 現實是骨感]  這句名言了吧。為啥子這麼說呢,那就是 不就是個SparkSql從hive匯入到mysql嗎 有什麼技術含量,但是呢 不斷地踩坑ing填坑ing。 廢話不多說,直接上硬菜。 package co

如何監聽對 HIVE 資料的操作

目錄 簡介 HIVE 基本操作 獲取 HIVE 原始碼 編譯 HIVE 原始碼 啟動 HIVE 停止 HIVE 監聽對 HIVE 元資料的操作 參考文件 簡介 公司有個元資料管理平臺,會定期同步 HIVE 中的元資料。但這樣做有個問題,

記一次MongoDB效能問題(MySQL遷移到MongoDB)

最近忙著把一個專案從MySQL遷移到MongoDB,在匯入舊資料的過程中,遇到了些許波折,犯了不少錯誤,但同時也學到了不少知識,遂記錄下來,需要的朋友可以參考下 公司為這個專案專門配備了幾臺高效能務器,清一色的雙路四核超執行緒CPU,外加32G記憶體,運維人員安裝好Mo

把資料庫MYSQL遷移到POSTGRESQL

終於決定把資料庫從MYSQL轉到postgresql了。如何遷移是個問題。手工遷移太麻煩。終於從POSTGRESQL的網站上找到了一個小的遷移工具名字叫mysql2pgsql.perl,這是一個perl編寫的小程式。用法是先把MYSQL裡的資料DUMP下來儲存為mysql.s

用KettleMySQL遷移資料到Trafodion牛刀小試

眾所周知, Kettle(Pentaho Data Integration, PDL)是市場上一款領頭的開源的ETL工具,可以高效穩定的抽取、轉換和遷移資料。Kettle提供了基於Java的圖形化介面

【JEECG示例文檔】使用Kettlemysqloracle中抽取數據

content sdn color windows https con span kettle mil Kettle版本4.1.0 打開Spoon軟件,windows下面雙擊Spoon.bat即可。 創建一個轉換。 創建兩個數據源,一個是oracle的一個是my

hive資料服務啟動

啟動hive報錯 Exception in thread "main" java.lang.RuntimeException: java.lang.RuntimeException: Unable to instantiate org.apache.hadoo

Activiti-explorermysql切換Oracle不能自動建立表報錯:ORA-00942: 表或檢視不存在

在activiti-explorer中activiti-customer-context.xml檔案正常配置情況下,程式碼處於全部註釋狀態,將註釋放開,然後在 <bean id="process

擁有較大資料mysql遷移方案

方案1 In this case, normally, the best solution is a mysqldump using the --tab option like this: mysqldump --tab=/path/to/serverlocaldir