当前位置:   article > 正文

单机环境下的Hadoop-Hive搭建详细步骤_hadoo和hive单机安装

hadoo和hive单机安装

目录

前言

一、下载和安装

1.下载

2.安装

二、配置环境

1.添加环境变量

2.添加hive配置

三、连接mysql

1.下载驱动包

2.替换jar包

四、启动hive

1.初始化schema

2.启动服务

3.连接DataGrip

总结



前言

本篇内容主要描述单机环境下hadoop搭建hive的流程。

一、下载和安装

1.下载

下载安装包,放入指定目录下,这里放在opt的install目录下

hive版本选择的是3.1.2

2.安装

解压缩安装包到指定目录,这里解压到opt的soft目录下

查看目录,并改名(改名是为了方便且不容易出错)

二、配置环境

1.添加环境变量

使用 vim /etc/profile 命令编辑环境变量,插入以下内容

保存退出后,使用 source /etc/profile 命令使环境变量立即生效

2.添加hive配置

在 /opt/install/hive312/conf 目录下新建 hive-site.xml 文件并编辑

ps:按照自己的机器配置进行内容替换

  1. <?xml version="1.0" encoding="UTF-8"?>
  2. <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
  3. <configuration>
  4. <!--hdfs仓库路径-->
  5. <property>
  6. <name>hive.metastore.warehouse.dir</name>
  7. <value>/hive312/warehouse</value>
  8. </property>
  9. <!--metastore元数据库类型-->
  10. <property>
  11. <name>hive.metastore.db.type</name>
  12. <value>mysql</value>
  13. </property>
  14. <!--连接mysql字符串-->
  15. <property>
  16. <name>javax.jdo.option.ConnectionURL</name>
  17. <value>jdbc:mysql://192.168.227.129:3306/hive129?
  18. createDatabaseIfNotExist=true
  19. </value>
  20. </property>
  21. <!--mysql连接驱动-->
  22. <property>
  23. <name>javax.jdo.option.ConnectionDriverName</name>
  24. <value>com.mysql.cj.jdbc.Driver</value>
  25. </property>
  26. <!--mysql连接账号-->
  27. <property>
  28. <name>javax.jdo.option.ConnectionUserName</name>
  29. <value>root</value>
  30. </property>
  31. <!--mysql连接密码-->
  32. <property>
  33. <name>javax.jdo.option.ConnectionPassword</name>
  34. <value>123456</value>
  35. </property>
  36. <!--关闭schema验证-->
  37. <property><name>hive.metastore.schema.verification</name><value>false</value></property>
  38. <!--提示当前库名-->
  39. <property><name>hive.cli.print.current.db</name><value>true</value></property>
  40. <!--查询输出显示列名-->
  41. <property><name>hive.cli.print.header</name><value>true</value></property>
  42. </configuration>

三、连接mysql

1.下载驱动包

下载hive连接mysql的驱动jar包

这里使用的版本是 mysql-connector-java-8.0.29.jar

将其放入 /opt/soft/hive312/lib 目录下

2.替换jar包

删除lib中的guava包,拷贝新版本到lib

[root@kb129 lib]# rm -rf ./guava-19.0.jar

[root@kb129 lib]# cp /opt/soft/hadoop313/share/hadoop/common/lib/guava-27.0-jre.jar /opt/soft/hive312/lib/  (这里使用的版本为hadoop3.13中的guava包)

四、启动hive

1.初始化schema

使用如下命令

schematool -dbType mysql -initSchema

显示结果如下图则成功

2.启动服务

使用如下两个命令

nohup hive --service metastore &

nohup hive --servie hiveservr2 & 

3.连接DataGrip

进入beeline后输入如下命令(hostname替换为自己的机器名或者ip地址)

!connect jdbc:hive2://hostname:10000

用户名root密码为空

连接成功后,打开DataGrip,新建数据源,选择Apache Hive

输入主机ip,端口号,mysql的账号密码,点击测试连接

总结

以上就是单机hadoop环境下的hive搭建的详细步骤。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/笔触狂放9/article/detail/620579
推荐阅读
相关标签
  

闽ICP备14008679号