1. 程式人生 > >【七】Spark SQL命令和Spark shell命令操作hive中的表

【七】Spark SQL命令和Spark shell命令操作hive中的表

1.把hive的配置檔案hive-site.xml複製到spark/conf下。

2.啟動的時候帶上MySQL的連線驅動

Spark-shell命令使用

spark-shell是通過得到sparksession然後呼叫sql方法執行hive的sql。

cd /app/spark/spark-2.2.0-bin-2.9.0/bin

./spark-shell --master local[3] --jars /app/mysql-connector-java-5.1.46.jar

spark.sql("show tables").show 通過spark-shell查詢hive中有哪些表

spark.sql("select * from emp").show通過spark-shell查詢hive中的表所有的資料

Spark SQL命令的使用

cd /app/spark/spark-2.2.0-bin-2.9.0/bin

./spark-sql --master local[3] --jars /app/mysql-connector-java-5.1.46.jar

在Spark SQL中可以直接執行SQL操作Hive

檢視hive中有哪些表

檢視hive的emp表中的資料

spark-sql>select * from emp;

建立一張表到hive中

create table t(key string,value string);