当前位置:   article > 正文

Hive3.1.2详细配置过程_hive3.1.2安装教程

hive3.1.2安装教程

Hive3.1.2的配置安装


前言

  1. 前提环境:ubuntu20.04+hadoop3.3.1+jdk1.8.0_341+mysql8+hbase2.4.4

一、Hive是什么?

  1. 简介:Hive是一个基于Hadoop的数据仓库工具,可以对存储在Hadoop文件中的数据进行数据整理,特殊存储和分析处理。Hive在某种程度上可以看作用户编程接口,其本身并不具存储和处理数据,而是依赖来HDFS来存储数据,依赖MapReduce(或Tez,Spark)来处理数据。
  2. 优点:是一个可以有效,合理,只管地组织和使用数据分析工具。(更在行处理大的数据)。
  3. Hive模块:用户接口模块,驱动模块,元数据存储模块。
  4. 数据仓库的体系结构:数据源,数据存储和管理,数据服务,数据应用。

二、安装准备

  1. 先进行下载安装包。Hive3.1.2
  2. 下载地址:https://mirrors.tuna.tsinghua.edu.cn/apache/hive/
  3. mysql是通过命令进行安装的。

三.进行安装操作

  1. 先对本机的mysql进行删除,原因如果不删除mysql则会在后续配置中可能出现问题。
  2. 操作如下(这里仅展示几个)
sudo apt purge mysql-*
sudo rm -r /etc/mysql
sudo rm -r /var/lib/mysql
sudo apt autoremove
sudo apt autoclean
  • 1
  • 2
  • 3
  • 4
  • 5

j截图如下
在这里插入图片描述
在这里插入图片描述
3. 安装mysql

sudo apt-get install mysql-server -y
sudo apt install mysql-client -y
sudo apt install libmysqlclient-dev -y
  • 1
  • 2
  • 3

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
检验是否成功
在这里插入图片描述
4. 连接本地mysql用于进入mysql

sudo cat /etc/mysql/debian.cnf
  • 1

在这里插入图片描述
5. 在对mysql进行关闭与启动
在这里插入图片描述
6. 进入mysql(此时输入的密码为上面的得到的)

mysql -u debian-sys-maint -p
debian-sys-maint(表示的是上面产生的用户名)
  • 1
  • 2

在这里插入图片描述
7. 在mysql中创建新用户
进入MySQL
在这里插入图片描述
每次使用后应进行刷新操作。
在这里插入图片描述
创建用户。
在这里插入图片描述
查看用户权限
在这里插入图片描述
为用户赋予权限(我赋予了全部权限)

使用方法
grant 权限 on 数据库.表 to '用户'@‘IP地址(若为本地localhost)’
权限列表
all privileges  除grant外的所有权限
    select      查看权限
    select,insert 查看和插入
    Alter routine 权限代表允许修改或者删除存储过程、函数的权限
    Create 权限代表允许创建新的数据库和表的权限
    Create routine 权限代表允许创建存储过程、函数的权限
    Create tablespace 权限代表允许创建、修改、删除表空间和日志组的权限
    Create temporary tables 权限代表允许创建临时表的权限
    Create user 权限代表允许创建、修改、删除、重命名user的权限
    Create view 权限代表允许创建视图的权限
    Delete 权限代表允许删除行数据的权限
    Drop 权限代表允许删除数据库、表、视图的权限,包括truncate table命令
    Event 权限代表允许查询,创建,修改,删除MySQL事件
    Execute 权限代表允许执行存储过程和函数的权限
    ...(还有很多不再赘述)
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18

在这里插入图片描述
8. 解压hive到/usr/local路径下
在这里插入图片描述
9.对hive进行重命名,设置权限
在这里插入图片描述
9. 配置hive环境 sudo vim ~/.bashrc

export HIVE_HOME=/usr/local/hive  (你的hive 安装路径)
export PATH = $PATH:$HIVE_HOME/bin
  • 1
  • 2
  1. 创建hive-site.xml文档
    在这里插入图片描述
  2. 配置文件hive-site.xml
<?xml version="1.0" encoding="UTF-8" standalone="no"?>
        <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
        <configuration>
        <property>
            <name>javax.jdo.option.ConnectionURL</name>
            <value>jdbc:mysql://localhost:3306/hive?createDatabaseIfNotExist=true</value>
            <description>JDBC connect string for a JDBC metastore</description>
        </property>
        <property>
            <name>javax.jdo.option.ConnectionDriverName</name>
            <value>com.mysql.cj.jdbc.Driver</value>
            <description>Driver class name for a JDBC metastore</description>
        </property>
        <property>
            <name>javax.jdo.option.ConnectionUserName</name>
            <value>hive</value>
            <description>username to use against metastore database</description>
        </property>
        <property>
            <name>javax.jdo.option.ConnectionPassword</name>
            <value>hive</value>
            <description>password to use against metastore database</description>
   		 </property>
		 <property>
  		    <name>datanucleus.schema.autoCreateAll</name>
 		   <value>true</value>
		 </property>
 		 <property>
  		    <name>datanucleus.readOnlyDatastore</name>
		    <value>false</value>
		 </property>
		 <property>
		    <name>datanucleus.fixedDatastore</name>
 		   <value>false</value>
		 </property>
		 <property>
		    <name>datanucleus.autoCreateSchema</name>
 		    <value>true</value>
		 </property>
		 <property>
		    <name>datanucleus.autoCreateTables</name>
 		    <value>true</value>
		 </property>
		 <property>
   			 <name>datanucleus.autoCreateColumns</name>
  		   <value>true</value>
		 </property>
</configuration>


  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • 44
  • 45
  • 46
  • 47
  • 48
  • 49
  • 50
  1. 启动hadoop
    在这里插入图片描述
  2. 启动hive
    在这里插入图片描述
    并进行hive 操作创建表….
    在这里插入图片描述
    在这里插入图片描述

总结

– Hive架构在MapReduce, HDFS之上,自身并不存储和处理数据,而是分别借助HDFS和MapReduce实现数据的存储和处理。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/不正经/article/detail/507856
推荐阅读
相关标签
  

闽ICP备14008679号