当前位置:   article > 正文

Hive的安装与配置_本关任务:在已安装hadoop的基础上安装配置好hive并运行。

本关任务:在已安装hadoop的基础上安装配置好hive并运行。

目录

第1关:Hive的安装与配置

任务描述

编程要求

测试说明

代码:

 第2关:Hive Shell入门基础命令

 任务描述

编程要求

测试说明

代码:


第1关:Hive的安装与配置

任务描述

本关任务:在已安装Hadoop的基础上安装配置好Hive并运行。

编程要求

请仔细阅读左侧文档知识点,根据提示,在右侧命令行区域进行 Hive 环境搭建,具体任务如下:

  • 根据上述步骤完成Hive的安装与配置
  • 然后在命令行start-dfs.sh启动 Hadoop
  • 点击测评,验证hive是否成功安装配置。

测试说明

补充完代码后,点击测评,平台会对你编写的代码进行测试,当你的结果与预期输出一致时,即为通过。

通关标准:通过Hive可否查询到数据库来判断它是否安装配置成功。

注意:通过本关后,请继续完成第二关,第二关是在Hive配置成功的基础上进行的。若中间命令行连接中断,还需重新配置本关环境才能继续第二关。

代码:

  1. cd /opt
  2. tar -zxvf apache-hive-3.1.0-bin.tar.gz
  3. mv apache-hive-3.1.0-bin hive
  4. vi /etc/profile
  5. i

1.末尾处添加以下代码

  1. export HIVE_HOME=/opt/hive
  2. export PATH=$HIVE_HOME/bin:$PATH

 退出文件

  1. ESC
  2. :wq
  3. source /etc/profile
  4. rm /opt/hive/lib/log4j-slf4j-impl-2.10.0.jar
  5. tar -zxvf mysql-connector-java-5.1.45.tar.gz
  6. cd mysql-connector-java-5.1.45
  7. cp mysql-connector-java-5.1.45-bin.jar /opt/hive/lib/
  8. mysql -uroot -p123123 -h127.0.0.1
  9. create database hiveDB;
  10. create user 'bee'@'%' identified by '123123';
  11. grant all privileges on hiveDB.* to 'bee'@'%' identified by '123123';
  12. flush privileges;
  13. quit
  14. cd /opt/hive/conf
  15. vi hive-site.xml
  16. i

2.文件中添加以下代码

  1. <?xml version="1.0" encoding="UTF-8" standalone="no"?>
  2. <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
  3. <configuration>
  4. <!-- WARNING!!! This file is auto generated for documentation purposes ONLY! -->
  5. <!-- WARNING!!! Any changes you make to this file will be ignored by Hive. -->
  6. <!-- WARNING!!! You must make your changes in hive-site.xml instead. -->
  7. <!-- Hive Execution Parameters -->
  8. <property>
  9. <name>hive.metastore.warehouse.dir</name>
  10. <value>/opt/hive/warehouse</value>
  11. </property>
  12. <property>
  13. <name>hive.exec.scratchdir</name>
  14. <value>/opt/hive/tmp</value>
  15. </property>
  16. <property>
  17. <name>hive.querylog.location</name>
  18. <value>/opt/hive/logs</value>
  19. </property>
  20. <property>
  21. <name>hive.server2.thrift.port</name>
  22. <value>10000</value>
  23. </property>
  24. <property>
  25. <name>hive.server2.thrift.bind.host</name>
  26. <value>localhost</value>
  27. </property>
  28. <property>
  29. <name>hive.server2.enable.doAs</name>
  30. <value>true</value>
  31. </property>
  32. <property>
  33. <name>hive.session.id</name>
  34. <value>false</value>
  35. </property>
  36. <property>
  37. <name>hive.session.silent</name>
  38. <value>false</value>
  39. </property>
  40. <property>
  41. <name>javax.jdo.option.ConnectionURL</name>
  42. <value>jdbc:mysql://localhost:3306/hiveDB?createDatabaseIfNotExist=true</value>
  43. </property>
  44. <property>
  45. <name>javax.jdo.option.ConnectionDriverName</name>
  46. <value>com.mysql.jdbc.Driver</value>
  47. </property>
  48. <property>
  49. <name>javax.jdo.option.ConnectionUserName</name>
  50. <value>bee</value>
  51. <!-- 这里是之前设置的数据库 -->
  52. </property>
  53. <property>
  54. <name>javax.jdo.option.ConnectionPassword</name>
  55. <!-- 这里是数据库密码 -->
  56. <value>123123</value>
  57. </property>
  58. </configuration>

 退出文件

  1. ESC
  2. :wq
  3. cp hive-env.sh.template hive-env.sh
  4. vi hive-env.sh
  5. i

3.末尾处添加以下代码

HADOOP_HOME=/usr/local/hadoop

退出文件 

  1. ESC
  2. :wq
  3. schematool -dbType mysql -initSchema
  4. start-dfs.sh

开始你的任务吧,祝你成功!


 第2关:Hive Shell入门基础命令

 任务描述

本关任务:按照编程要求,在Hive下创建表。

编程要求

请根据左侧知识点的描述,在右侧命令行中使用 Hive 进行创表 ,具体任务如下:

Hive Shell下创建一个表student,表结构如下:

col_namedata_type
idint
namestring
sgeint

测试说明

补充完代码后,点击测评,平台会对你编写的代码进行测试,当你的结果与预期输出一致时,即为通过。

代码:

  1. hive
  2. create database mydb;
  3. create table student(id int,name string,age int);

开始你的任务吧,祝你成功!

声明:本文内容由网友自发贡献,转载请注明出处:【wpsshop博客】
推荐阅读
相关标签
  

闽ICP备14008679号