当前位置:   article > 正文

配置hive on spark_hive on spark配置

hive on spark配置

配置hive on spark

1、上传 Spark 纯净版 jar 包到 HDFS

hdfs dfs -mkdir /spark-jars
  • 1
hdfs dfs -put /opt/spark/jars/* /spark-jars
  • 1

2、修改 hive-site.xml 文件,添加如下配置:

    <!--Spark 依赖位置(注意:端口号必须和 namenode的端口号一致)-->
    <property>
     	<name>spark.yarn.jars</name>
     	<!--<value>hdfs://hadoop:8020/spark-jars/*</value>-->
    <value>hdfs://hadoop:9000/spark-jars/*</value>
    </property>
    <!--Hive 执行引擎-->
    <property>
     	<name>hive.execution.engine</name>
     	<value>spark</value>
    </property>
    <!--Hive 和 Spark 连接超时时间-->
    <property>
     	<name>hive.spark.client.connect.timeout</name>
     	<value>10000ms</value>
    </property>
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16

2、测试hive on spark是否配置成功。

往数据库表default.student中添加数据:insert into student values(‘haoge’,22);

本文仅用于参考学习,参考原文:
https://blog.csdn.net/weixin_45417821/article/details/115268740

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/我家自动化/article/detail/634588
推荐阅读
相关标签
  

闽ICP备14008679号