赞
踩
目录
本篇内容主要描述单机环境下hadoop搭建hive的流程。
下载安装包,放入指定目录下,这里放在opt的install目录下
hive版本选择的是3.1.2
解压缩安装包到指定目录,这里解压到opt的soft目录下
查看目录,并改名(改名是为了方便且不容易出错)
使用 vim /etc/profile 命令编辑环境变量,插入以下内容
保存退出后,使用 source /etc/profile 命令使环境变量立即生效
在 /opt/install/hive312/conf 目录下新建 hive-site.xml 文件并编辑
ps:按照自己的机器配置进行内容替换
- <?xml version="1.0" encoding="UTF-8"?>
- <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
- <configuration>
- <!--hdfs仓库路径-->
- <property>
- <name>hive.metastore.warehouse.dir</name>
- <value>/hive312/warehouse</value>
- </property>
- <!--metastore元数据库类型-->
- <property>
- <name>hive.metastore.db.type</name>
- <value>mysql</value>
- </property>
- <!--连接mysql字符串-->
- <property>
- <name>javax.jdo.option.ConnectionURL</name>
- <value>jdbc:mysql://192.168.227.129:3306/hive129?
- createDatabaseIfNotExist=true
- </value>
- </property>
- <!--mysql连接驱动-->
- <property>
- <name>javax.jdo.option.ConnectionDriverName</name>
- <value>com.mysql.cj.jdbc.Driver</value>
- </property>
- <!--mysql连接账号-->
- <property>
- <name>javax.jdo.option.ConnectionUserName</name>
- <value>root</value>
- </property>
- <!--mysql连接密码-->
- <property>
- <name>javax.jdo.option.ConnectionPassword</name>
- <value>123456</value>
- </property>
- <!--关闭schema验证-->
- <property><name>hive.metastore.schema.verification</name><value>false</value></property>
- <!--提示当前库名-->
- <property><name>hive.cli.print.current.db</name><value>true</value></property>
- <!--查询输出显示列名-->
- <property><name>hive.cli.print.header</name><value>true</value></property>
- </configuration>
下载hive连接mysql的驱动jar包
这里使用的版本是 mysql-connector-java-8.0.29.jar
将其放入 /opt/soft/hive312/lib 目录下
删除lib中的guava包,拷贝新版本到lib
[root@kb129 lib]# rm -rf ./guava-19.0.jar
[root@kb129 lib]# cp /opt/soft/hadoop313/share/hadoop/common/lib/guava-27.0-jre.jar /opt/soft/hive312/lib/ (这里使用的版本为hadoop3.13中的guava包)
使用如下命令
schematool -dbType mysql -initSchema
显示结果如下图则成功
使用如下两个命令
nohup hive --service metastore &
nohup hive --servie hiveservr2 &
进入beeline后输入如下命令(hostname替换为自己的机器名或者ip地址)
!connect jdbc:hive2://hostname:10000
用户名root密码为空
连接成功后,打开DataGrip,新建数据源,选择Apache Hive
输入主机ip,端口号,mysql的账号密码,点击测试连接
以上就是单机hadoop环境下的hive搭建的详细步骤。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。