当前位置:   article > 正文

【大数据笔记】java jdbc连接hive数据库;java hive连接kerberos_java jdbc多数据源 连接hive

java jdbc多数据源 连接hive

一、java jdbc连接hive数据库(jdbc连接普通hive数据库)

1、pom.xml配置
        <dependency>
            <groupId>org.apache.hive</groupId>
            <artifactId>hive-jdbc</artifactId>
            <scope>2.1.1</scope>
        </dependency>

2、驱动

org.apache.hive.jdbc.HiveDriver

3、用传统改的Class.forName,然后DriverManager去拿。

二、java hive连接kerberos

1、pom.xml配置        

  1. <dependency>
  2.    <groupId>org.apache.hive</groupId>
  3.    <artifactId>hive-jdbc</artifactId>
  4.    <scope>2.1.1</scope>
  5. </dependency>
  6. <dependency>
  7. <groupId>org.apache.hadoop</groupId>
  8. <artifactId>hadoop-client</artifactId>
  9. <version>2.7.3</version>
  10. </dependency>
  11. <dependency>
  12.    <groupId>org.apache.hadoop</groupId>
  13.    <artifactId>hadoop-common</artifactId>
  14.    <version>2.7.7</version>
  15. </dependency>
  16. <dependency>
  17. <groupId>org.apache.hadoop</groupId>
  18. <artifactId>hadoop-mapreduce-client-core</artifactId>
  19. <version>2.7.7</version>
  20. </dependency>
  21. <dependency>
  22.    <groupId>org.apache.hadoop</groupId>
  23.    <artifactId>hadoop-hdfs</artifactId>
  24.    <version>2.7.3</version>
  25. </dependency>

2、准备好配置文件

在使用idea开发,spark程序时,需要在开发环境模拟hadoop环境,不然,每次都要打jar去集群环境执行调试程序,严重影响开发效率。

winutils.exe是在Windows系统上需要的hadoop调试环境工具,里面包含一些在Windows系统下调试hadoop、spark所需要的基本的工具类

下载及配置winutils.exe:使用winutils.exe,在windows开发环境下,调试下调试hadoop、spark程序-CSDN博客

3、例子

  1. package org.example;
  2. import org.apache.hadoop.conf.Configuration;
  3. import org.apache.hadoop.security.UserGroupInformation;
  4. import java.io.IOException;
  5. import java.sql.Connection;
  6. import java.sql.DriverManager;
  7. import java.sql.PreparedStatement;
  8. import java.sql.ResultSet;
  9. import java.sql.SQLException;
  10. public class Main {
  11. private static String url = "jdbc:hive2://cdh-mgm01:10000/default;principal=hive/cdh-mgm01@FEHORIZON.COM";
  12. private static Connection conn = null;
  13. private static PreparedStatement ps = null;
  14. private static ResultSet rs = null;
  15. public static void main(String[] args) throws SQLException {
  16. String path ="D:\\work\\Kerberos5\\"
  17. \\System.out.println(System.getProperty("user.dir") + "/krb5.conf");
  18. Configuration conf = new Configuration();
  19. conf.set("hadoop.security.authentication", "Kerberos");
  20. System.setProperty("krb5_ini", path + "krb5.conf");
  21. System.setProperty("hive_keytab", path + "\hive.keytab");
  22. //Windows系统 --- winutils.exe文件位置
  23. System.setProperty("hadoop.home.dir""p:\\work\\hadoop-3.0.0")
  24. System.setProperty("java.security.krb5.conf", System.getProperty("krb5_ini"));
  25. UserGroupInformation.setConfiguration(conf);
  26. try {
  27. UserGroupInformation.loginUserFromKeytab("hive/cdh-mgm01@FEHORIZON.COM", System.getProperty("hive_keytab"));
  28. } catch (IOException e) {
  29. e.printStackTrace();
  30. }
  31. try {
  32. // 使用hive用户登陆
  33. conn = DriverManager.getConnection(url, "", "");
  34. } catch (SQLException e) {
  35. e.printStackTrace();
  36. }
  37. showTables();
  38. }
  39. public static void showTables() {
  40. try {
  41. // 进入default数据库
  42. ps = conn.prepareStatement("use default");
  43. ps.execute();
  44. // 展示所有表
  45. rs = ps.executeQuery("show tables");
  46. // 处理结果集
  47. while (rs.next()) {
  48. System.out.println(rs.getString(1));
  49. }
  50. } catch (SQLException e) {
  51. e.printStackTrace();
  52. }
  53. }
  54. };

4、成功运行截图

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/喵喵爱编程/article/detail/904296
推荐阅读
相关标签
  

闽ICP备14008679号