当前位置:   article > 正文

【SparkSQL】- 连接 Hive 报错 SparkSession with Hive support because Hive classes are no_unable to instantiate sparksession with hive suppo

unable to instantiate sparksession with hive support because hive classes ar

报错信息

在这里插入图片描述

ERROR StatusLogger No log4j2 configuration file found. Using default configuration: logging only errors to the console.
Exception in thread "main" java.lang.IllegalArgumentException: Unable to instantiate SparkSession with Hive support because Hive classes are not found.
  • 1
  • 2

原因 分析

报错上面已经很明确了, 没有 hive 的 classs , 但是 我 pom 文件中添加的就有 hive的包
在这里插入图片描述
我之前那些 maven 包都是红色的报错的状态 , 所以虽然我 pom 文件中加了 hive的, 但是下载的jar包 好像是在我默认的 c盘的路径下, 很奇怪 我之前的都是正常的
下面是 我的 hive的依赖的包

 <dependency>
            <groupId>org.apache.spark</groupId>
            <artifactId>spark-hive_2.11</artifactId>
            <version>2.1.1</version>
        </dependency>
        <dependency>
            <groupId>org.apache.hive</groupId>
            <artifactId>hive-exec</artifactId>
            <version>2.1.1</version>
        </dependency>
        <dependency>
            <groupId>mysql</groupId>
            <artifactId>mysql-connector-java</artifactId>
            <version>5.1.17</version>
        </dependency>
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/IT小白/article/detail/869719
推荐阅读
相关标签
  

闽ICP备14008679号