hive 匯入 mysql文字
資料量過大,mysql支援不了。mysql只是個臨時方案,最終大資料搭建好了以後,還是需要把mysql的資料,匯入到hadoop中。
前面提到了另外一種匯入方式,請參考: sqoop 從mysql直接匯入到hive表 。
1,在hive中建立表
create table `mytest` ( `log_date` int, `log_time` int, `aid` string, `ticket` string ) ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t' LINES TERMINATED BY '\n' STORED AS TEXTFILE;
2,mysql匯出資料
注意: 匯出的文字檔案,值不要帶有雙引號,單引號之類的 。例如:
20190114 1547444359 28 aaaaaa 20190115 1547444390 28 bbbbb
3,匯入資料到hive中
hive> LOAD DATA (LOCAL) INPATH '/root/mysql.txt' (overwrite) INTO TABLE mytest;
注意:
這裡的local是你本機,如果去掉local,會去hdfs裡面找。
預設是追加的方式,如果是overwrite,就是覆蓋了。