当前位置:   article > 正文

Linux-CentOS 7-基于Hadoop安装与配置Hive-2.3.7_apache-hive-2.3.7-bin.tar.gz

apache-hive-2.3.7-bin.tar.gz

前期准备

    Hive是基于Hadoop的一个数据仓库工具,Hive处理的数据存储在HDFS上,分析数据底层默认实现是MapReduce,执行的程序运行在Yarn,所以安装Hive之前需要搭建好Hadoop集群。

虚拟机-Linux-CentOS 7吐血安装Hadoop2.9.2搭建集群教程(详细图解)

    默认存储元数据的数据库为Derby,为了避免使用默认的Derby数据库(有并发访问和性能的问题),通常还需要将元数据库配置为MySQL。

Linux-VMware15下CentOS 7安装MySQL5.7.28(tar.gz)

安装流程

  1. 官网下载:https://hive.apache.org/downloads.html

  2. 将下载好的Hive放入虚拟机,解压到 /opt 目录下:tar -zxvf apache-hive-2.3.7-bin.tar.gz

  3. 重命名:mv apache-hive-2.3.7-bin hive-2.3.7

  4. 修改 /etc/profile,配置Hive环境变量:export HIVE_HOME=/opt/hive-2.3.7export PATH=$PATH:$HIVE_HOME/binsource /etc/profile
    在这里插入图片描述

  5. /opt/hive-2.3.7/conf 目录下的 hive-env.sh.template 修改为 hive-env.shmv hive-env.sh.template hive-env.sh

  6. 配置HADOOP_HOMEHIVE_CONF_DIRHIVE_AUX_JARS_PATH
    在这里插入图片描述

  7. 开启HDFSYarnstart-dfs.shstart-yarn.sh

  8. 在HDFS上创建数据仓库目录并修改权限:hdfs dfs -mkdir -p /hive/warehousehdfs dfs -chmod -R 777 /hive/warehouse

  9. 在HDFS上创建临时目录并修改权限:hdfs dfs -mkdir -p /tmp/hivehdfs dfs -chmod -R 777 /tmp/hive

  10. 在本地Hive安装目录下创建一个tmp目录,tmp内有两个目录:mkdir -p tmp/resourcesmkdir -p tmp/hive/root

  11. /opt/hive-2.3.7/conf 目录下创建一个 hive-site.xmltouch conf/hive-site.xml

  12. 配置 hive-site.xml

    <?xml version="1.0" encoding="UTF-8" standalone="no"?>
    <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
    <configuration>
    	<!--Default数据仓库原始位置是在hdfs上:/user/hive/warehouse路径下-->
    	<property>
    		<name>hive.metastore.warehouse.dir</name>
    		<value>/hive/warehouse</value>
    		<!--先在HDFS创建目录-->
    		<description>location of default database for the warehouse</description>
    	</property>
    	<!--Hive用来存储不同阶段的MapReduce的执行计划的目录,同时也存储中间输出结果-->
    	<property>
    		<name>hive.exec.scratchdir</name>
    		<value>/tmp/hive</value>
    		<!--先在HDFS创建目录-->
    	</property>
    	<property>
    		<name>hive.scratch.dir.permission</name>
    		<value>777</value>
    		<description>The permission for the user specific scratch directories that get created.</description>
    	</property>
    	<!--当Hive运行在本地模式时配置-->
    	<property>
    		<name>hive.exec.local.scratchdir</name>
    		<value>/opt/hive-2.3.7/tmp/hive/root</value>
    		<!--先在本地创建目录-->
    		<description>Local scratch space for Hive jobs</description>
    	</property>
    	<!--远程资源下载的临时目录-->
    	<property>
    		<name>hive.downloaded.resources.dir</name>
    		<value>/opt/hive-2.3.7/tmp/resources</value>
    		<!--先在本地创建目录-->
    		<description>Temporary local directory for added resources in the remote file system.</description>
    	</property>
    	<!--配置Metastore到MySql-->
    	<property>
    		<name>javax.jdo.option.ConnectionURL</name>
    		<value>jdbc:mysql://master:3306/metastore?createDatabaseIfNotExist=true&amp;useSSL=false</value>
    		<!--XML需要转义,&转义为&amp;-->
    		<description>JDBC connect string for a JDBC metastore</description>
    	</property>
    	<property>
    		<name>javax.jdo.option.ConnectionDriverName</name>
    		<value>com.mysql.jdbc.Driver</value>
    		<description>Driver class name for a JDBC metastore</description>
    	</property>
    	<property>
    		<name>javax.jdo.option.ConnectionUserName</name>
    		<value>root</value>
    		<description>username to use against metastore database</description>
    	</property>
    	<property>
    		<name>javax.jdo.option.ConnectionPassword</name>
    		<value>123456</value>
    		<description>password to use against metastore database</description>
    	</property>
    	<!--查询后显示当前数据库,以及查询表的头信息配置-->
    	<property>
    		<name>hive.cli.print.header</name>
    		<value>true</value>
    	</property>
    	<property>
    		<name>hive.cli.print.current.db</name>
    		<value>true</value>
    	</property>
    	<property>
    		<name>hive.metastore.schema.verification</name>
    		<value>false</value>
    	</property>
    </configuration>
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30
    • 31
    • 32
    • 33
    • 34
    • 35
    • 36
    • 37
    • 38
    • 39
    • 40
    • 41
    • 42
    • 43
    • 44
    • 45
    • 46
    • 47
    • 48
    • 49
    • 50
    • 51
    • 52
    • 53
    • 54
    • 55
    • 56
    • 57
    • 58
    • 59
    • 60
    • 61
    • 62
    • 63
    • 64
    • 65
    • 66
    • 67
    • 68
    • 69
    • 70
    • 71
  13. 在本地Hive安装目录下创建一个log目录(当Hive运行时,相应的日志文档存储的地方):mkdir log

  14. 将conf文件夹下 hive-log4j.properties.template 改名为 hive-log4j.propertiesmv hive-log4j2.properties.template hive-log4j2.properties

  15. 修改 hive-log4j.properties 中 hive.log.dir 路径
    在这里插入图片描述

  16. 下载 mysql-connector-java,解压,将里面的jar包复制到 $HIVE_HOME/lib 目录下 https://dev.mysql.com/downloads/connector/j/
    在这里插入图片描述
    在这里插入图片描述

  17. 登录MySQL,对用户授权:use mysqlgrant all on *.* to ‘root’@’%’ identified by ‘123456’;flush privileges
    在这里插入图片描述

  18. 使用 $HIVE_HOME/bin 下的 schematool 初始化数据库:/opt/hive-2.3.7/bin/schematool -dbType mysql -initSchema。初始化之后会多出一个metastore数据库,可登录MySQL查看
    在这里插入图片描述
    在这里插入图片描述

  19. 启动 HDFS:start-dfs.sh,启动Hive:hive
    在这里插入图片描述

    设置本地模式(仅对当前有效,重新登录要重新设置): set hive.exec.mode.local.auto=true;

    到这里,Hive就成功配置了

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/从前慢现在也慢/article/detail/633484
推荐阅读
相关标签