当前位置:   article > 正文

hadoop搭建之hive安装

initialization script hive-schema-2.1.0.derby.sql error: you have an error i

本文hive安装环境
系统:centos6.9
jdk:jdk1.8.0_201
hadoop:hadoop-2.7.2
HBase:hbase-1.2.4
zookeeper:zookeeper-3.4.9
mysql:mysql-server

hive安装版本:
apache-hive-2.1.1

mysql数据库连接安装包
mysql-connector-java-5.1.44-bin.jar

1、下载安装包
apache-hive-2.1.1-bin.tar.gz

2、将下载的安装包上传到centos6.9b并解压,重新命名为hive

3、配置环境变量(在root下)

  1. 输入命令vi /ect/profile
  2. # Hive environment
  3. export HIVE_HOME=/opt/modules/hive
  4. export PATH=$HIVE_HOME/bin:$HIVE_HOME/conf:$PATH

4、source /etc/profile 生效环境变量

5、将mysql连接安装包mysql-connector-java-5.1.44-bin.jar放到hive中的lib文件下

5、修改hive配置文件,切换至目录cd /opt/modules/hive/conf,把初始化文件复制一份并改名

  1. cp hive-env.sh.template hive-env.sh
  2. cp hive-default.xml.template hive-site.xml
  3. cp hive-log4j2.properties.template hive-log4j2.properties
  4. cp hive-exec-log4j2.properties.template hive-exec-log4j2.properties

6、新建hive在hdfs的缓存目录(配置文件会用到)

  1. hadoop fs -mkdir hbase
  2. hadoop fs -mkdir hbase/temp

7、在hive目录下,建立temp文件夹(配置文件会用到)

8、修改hive-env.sh

  1. #hadoop这里根据你的地址
  2. export HADOOP_HOME=/opt/modules/hadoop
  3. export HIVE_CONF_DIR=/opt/modules/hive/conf
  4. export HIVE_HOME=/opt/modules/hive
  5. export HIVE_AUX_JARS_PATH=/opt/modules/hive/lib

9、在mysql数据库中新建hive数据库

10、修改hive-site.xml(文件信息比较多,用Ctrl搜索name值,修改value值即可)

  1. 配置数据库
  2. <property>
  3. <name>javax.jdo.option.ConnectionURL</name>
  4. <value>jdbc:mysql://主机名:3306/hive?createDatabaseIfNotExist=true&amp;characterEncoding=UTF-8&amp;useSSL=false</value>
  5. </property>
  6. #配置连接驱动
  7. <property>
  8. <name>javax.jdo.option.ConnectionDriverName</name>
  9. <value>com.mysql.jdbc.Driver</value>
  10. </property>
  11. #配置数据库用户名
  12. <property>
  13. <name>javax.jdo.option.ConnectionUserName</name>
  14. <value>用户名</value>
  15. </property>
  16. #配置数据库密码
  17. <property>
  18. <name>javax.jdo.option.ConnectionPassword</name>
  19. <value>密码</value>
  20. </property>
  21. #配置缓存目录:
  22. <property>
  23. <name>hive.metastore.warehouse.dir</name>
  24. #刚才创建的第一个
  25. <value>/hbase</value>
  26. <description>
  27. location of default database for the warehouse
  28. </description>
  29. </property>
  30. <property>
  31. <name>hive.exec.scratchdir</name>
  32. #刚才建的第二个目录
  33. <value>/hbase/temp</value>
  34. <description>HDFS root scratch dir for Hive jobs which gets created with write all (733) permission. For each connecting user, an HDFS scratch dir: ${hive.exec.scratchdir}/&lt;username&gt; is created, with ${hive.scratch.dir.permission}.</description>
  35. </property>
  36. #配置刚才在hive建的temp文件
  37. <property>
  38. <name>hive.querylog.location</name>
  39. <value>/opt/modules/hive/tmp${user.name}</value>
  40. <description>Location of Hive run time structured log file</description>
  41. </property>
  42. 在配置文件 hive-site.xml 里面把
  43. {system:java.io.tmpdir}
  44. 改成 /opt/modules/hive/temp
  45. 把 {system:user.name} 改成 {user.name}

11、初始化hive,输入命令

schematool -initSchema -dbType mysql

初始化成功会有以下提示
Starting metastore schema initialization to 2.1.0
Initialization script hive-schema-2.1.0.derby.sql
Initialization script completed

12、输入命令hive,进入hive进行测试

总结:最近在学习配置的时候,对于路径的理解不是很深入,总是会出现大大小小的问题,经过练习,对于路径能熟悉很多,大多数的事情都是从不熟悉到熟悉,慢慢坚持

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/我家自动化/article/detail/507935
推荐阅读
相关标签
  

闽ICP备14008679号