当前位置:   article > 正文

hive(实验六)_实验6熟悉hive的基本操作

实验6熟悉hive的基本操作

一.hive基本概念
1.hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供完整的sql查询功能,可以将sql语句转换为MapReduce任务进行运行。 其优点是学习成本低,可以通过类SQL语句快速实现简单的MapReduce统计,不必开发专门的MapReduce应用,十分适合数据仓库的统计分析。另外一个是Windows注册表文件。
2.Hive是建立在 Hadoop 上的数据仓库基础构架。它提供了一系列的工具,可以用来进行数据提取转化加载(ETL),这是一种可以存储、查询和分析存储在 Hadoop 中的大规模数据的机制。Hive 定义了简单的类 SQL 查询语言,称为 HQL,它允许熟悉 SQL 的用户查询数据。同时,这个语言也允许熟悉 MapReduce 开发者的开发自定义的 mapper 和 reducer 来处理内建的 mapper 和 reducer 无法完成的复杂的分析工作。
3.Hive 没有专门的数据格式。 Hive 可以很好的工作在 Thrift 之上,控制分隔符,也允许用户指定数据格式。

二.Hive体系结构主要分为以下几个部分:
(1)用户接口
用户接口主要有三个:CLI,Client 和 WUI。其中最常用的是 CLI,Cli 启动的时候,会同时启动一个 Hive 副本。Client 是 Hive 的客户端,用户连接至 Hive Server。在启动 Client 模式的时候,需要指出 Hive Server 所在节点,并且在该节点启动 Hive Server。 WUI 是通过浏览器访问 Hive。

(2)元数据存储
Hive 将元数据存储在数据库中,如 mysql、derby。Hive 中的元数据包括表的名字,表的列和分区及其属性,表的属性(是否为外部表等),表的数据所在目录等。
解释器、编译器、优化器、执行器
解释器、编译器、优化器完成 HQL 查询语句从词法分析、语法分析、编译、优化以及查询计划的生成。生成的查询计划存储在 HDFS 中,并在随后由 MapReduce 调用执行。

(3)Hadoop
Hive 的数据存储在 HDFS 中,大部分的查询由 MapReduce 完成(包含 * 的查询,比如 select * from tbl 不会生成 MapReduce 任务)。

三。hive安装配置
一:下载hive——地址:http://mirror.bit.edu.cn/apache/hive/
1.将hive解压到/usr/local下:
[root@s100 local]# tar -zxvf apache-hive-2.1.1-bin.tar.gz -C /usr/local/

2.将文件重命名为hive文件:
[root@s100 local]# mv apache-hive-2.1.1-bin hive

3.修改环境变量/etc/profile:
[root@s100 local]# vim /etc/profile
1 #hive 2 export HIVE_HOME=/usr/local/hive 3 export PATH= P A T H : PATH: PATH:HIVE_HOME/bin

4.执行source /etc.profile:
执行hive --version

[root@s100 local]# hive --version
有hive的版本显现,安装成功!

[root@s100 conf]# cd /usr/local/hive/conf/
修改hive-site.xml:

1.配置hive-site.xml(第5点的后面有一个单独的hive-site.xml配置文件,这个如果有疑问可以用后面的配置文件,更容易明白)

2.复制mysql的驱动程序到hive/lib下面(这里已经拷贝好了)

3.在mysql中hive的schema(在此之前需要创建mysql下的hive数据库)

4.执行hive命令
[root@localhost hive]# hive

成功进入hive界面,hive配置完成

5.查询mysql

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/不正经/article/detail/686048
推荐阅读
相关标签
  

闽ICP备14008679号