当前位置:   article > 正文

spark—连接hive、mysql_spark mysql与hive联查

spark mysql与hive联查

前置

先打开安装hive、mysql的虚拟机

打开hadoop

start-all.sh 
  • 1

打开hive

nohup hive --service metastore &
nohup hive --service hiveserver2 &

//进入hive
beeline -u jdbc:hive2:192.168.153.145:10000
  • 1
  • 2
  • 3
  • 4
  • 5

拷贝文件

conf文件

[root@cp145 ~]# cd /opt/soft/spark312/conf/
[root@cp145 conf]# cp /opt/soft/hive312/conf/hive-site.xml ./

  • 1
  • 2
  • 3

修改文件

  <property>
    <name>hive.metastore.uris</name>
    <value>thrift://192.168.153.145:9083</value>
  </property>
  • 1
  • 2
  • 3
  • 4

jar文件

[root@cp145 ~]# cd /opt/soft/spark312/jars/
[root@cp145 jars]# cp /opt/soft/hive312/lib/hive-beeline-3.1.2.jar ./
[root@cp145 jars]# cp /opt/soft/hive312/lib/hive-cli-3.1.2.jar ./
[root@cp145 jars]# cp /opt/soft/hive312/lib/hive-exec-3.1.2.jar ./
[root@cp145 jars]# cp /opt/soft/hive312/lib/hive-jdbc-3.1.2.jar ./
[root@cp145 jars]# cp /opt/soft/hive312/lib/hive-metastore-3.1.2.jar ./
[root@cp145 jars]# cp /opt/soft/hive312/lib/mysql-connector-java-8.0.29.jar ./

  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8

即可使用

spark.table("a")//a 是hive数据库中default中的表,spark只能访问默认数据库中的表
  • 1

在这里插入图片描述

或者使用

spark-sql//也可以进入
  • 1

在这里插入图片描述

声明:本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:【wpsshop博客】
推荐阅读
相关标签
  

闽ICP备14008679号