当前位置:   article > 正文

Hive知识体系保姆级教程_hive学习

hive学习

一. Hive概览

1.1 hive的简介

Hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供类SQL查询功能。

其本质是将SQL转换为MapReduce/Spark的任务进行运算,底层由HDFS来提供数据的存储,说白了hive可以理解为一个将SQL转换为MapReduce/Spark的任务的工具,甚至更进一步可以说hive就是一个MapReduce/Spark Sql的客户端

为什么要使用hive ?

主要的原因有以下几点:

  • 学习MapReduce的成本比较高, 项目周期要求太短, MapReduce如果要实现复杂的查询逻辑开发的难度是比较大的。

  • 而如果使用hive, hive采用操作接口类似SQL语法, 提高快速开发的能力. 避免去书写MapReduce,减少学习成本, 而且提供了功能的扩展

hive的特点:

  1. 可扩展 : Hive可以自由的扩展集群的规模,一般情况下不需要重启服务。

  2. 延展性 : Hive支持用户自定义函数,用户可以根据自己的需求来实现自己的函数。

  3. 容错 : 良好的容错性,节点出现问题SQL仍可完成执行。

1.2 hive的架构

基本组成:

用户接口:包括CLI、JDBC/ODBC、WebGUI。其中,CLI(command line interface)为shell命令行;JDBC/ODBC是Hive的JAVA实现,与传统数据库JDBC类似;WebGUI是通过浏览器访问Hive。

元数据存储:通常是存储在关系数据库如mysql/derby中。Hive 将元数据存储在数据库中。Hive 中的元数据包括表的名字,表的列和分区及其属性,表的属性(是否为外部表等),表的数据所在目录等。

解释器、编译器、优化器、执行器:完成HQL 查询语句从词法分析、语法分析、编译、优化以及查询计划的生成。生成的查询计划存储在HDFS 中,并在随后有MapReduce 调用执行。

1.3 hive与hadoop的关系

​ Hive利用HDFS存储数据,利用MapReduce查询分析数据

1.4 hive与传统数据库对比

​ hive主要是用于海量数据的离线数据分析

  1. 查询语言。由于 SQL 被广泛的应用在数据仓库中,因此,专门针对 Hive 的特性设计了类 SQL 的查询语言 HQL。熟悉 SQL 开发的开发者可以很方便的使用 Hive 进行开发。

  2. 数据存储位置。Hive 是建立在 Hadoop 之上的,所有 Hive 的数据都是存储在 HDFS 中的。而数据库则可以将数据保存在块设备或者本地文件系统中。

  3. 数据格式。Hive 中没有定义专门的数据格式,数据格式可以由用户指定,用户定义数据格式需要指定三个属性:列分隔符(通常为空格、”\t”、”\x001″)、行分隔符(”\n”)以及读取文件数据的方法(Hive 中默认有三个文件格式 TextFile,SequenceFile 以及 RCFile)。由于在加载数据的过程中,不需要从用户数据格式到 Hive 定义的数据格式的转换,因此,Hive 在加载的过程中不会对数据本身进行任何修改,而只是将数据内容复制或者移动到相应的 HDFS 目录中。而在数据库中,不同的数据库有不同的存储引擎,定义了自己的数据格式。所有数据都会按照一定的组织存储,因此,数据库加载数据的过程会比较耗时。

  4. 数据更新。由于 Hive 是针对数据仓库应用设计的,而数据仓库的内容是读多写少的。因此,Hive 中不支持对数据的改写和添加,所有的数据都是在加载的时候中确定好的。而数据库中的数据通常是需要经常进行修改的,因此可以使用 INSERT INTO ...  VALUES 添加数据,使用 UPDATE ... SET 修改数据。

  5. 索引。之前已经说过,Hive 在加载数据的过程中不会对数据进行任何处理,甚至不会对数据进行扫描,因此也没有对数据中的某些 Key 建立索引。Hive 要访问数据中满足条件的特定值时,需要暴力扫描整个数据,因此访问延迟较高。由于 MapReduce 的引入, Hive 可以并行访问数据,因此即使没有索引,对于大数据量的访问,Hive 仍然可以体现出优势。数据库中,通常会针对一个或者几个列建立索引,因此对于少量的特定条件的数据的访问,数据库可以有很高的效率,较低的延迟。由于数据的访问延迟较高,决定了 Hive 不适合在线数据查询。

  6. 执行。Hive 中大多数查询的执行是通过 Hadoop 提供的 MapReduce 来实现的,而数据库通常有自己的执行引擎。

  7. 执行延迟。之前提到,Hive 在查询数据的时候,由于没有索引,需要扫描整个表,因此延迟较高。另外一个导致 Hive 执行延迟高的因素是 MapReduce 框架。由于 MapReduce 本身具有较高的延迟,因此在利用 MapReduce 执行 Hive 查询时,也会有较高的延迟。相对的,数据库的执行延迟较低。当然,这个低是有条件的,即数据规模较小,当数据规模大到超过数据库的处理能力的时候,Hive 的并行计算显然能体现出优势。

  8. 可扩展性。由于 Hive 是建立在 Hadoop 之上的,因此 Hive 的可扩展性是和 Hadoop 的可扩展性是一致的(世界上最大的 Hadoop 集群在 Yahoo!,2009年的规模在 4000 台节点左右)。而数据库由于 ACID 语义的严格限制,扩展行非常有限。目前最先进的并行数据库 Oracle 在理论上的扩展能力也只有 100 台左右。

  9. 数据规模。由于 Hive 建立在集群上并可以利用 MapReduce 进行并行计算,因此可以支持很大规模的数据;对应的,数据库可以支持的数据规模较小。

总结:hive具有sql数据库的外表,但应用场景完全不同,hive只适合用来做批量数据统计分析。

1.5 hive的数据存储

  1. Hive中所有的数据都存储在 HDFS 中,没有专门的数据存储格式(可支持Text,SequenceFile,ParquetFile,ORC格式RCFILE等)

SequenceFile是hadoop中的一种文件格式: 文件内容是以序列化的kv对象来组织的

  1. 只需要在创建表的时候告诉 Hive 数据中的列分隔符和行分隔符,Hive 就可以解析数据。

  2. Hive 中包含以下数据模型:DB、Table,External Table,Partition,Bucket。

  • db:在hdfs中表现为hive.metastore.warehouse.dir目录下一个文件夹。

  • table:在hdfs中表现所属db目录下一个文件夹。

  • external table:与table类似,不过其数据存放位置可以在任意指定路径。

  • partition:在hdfs中表现为table目录下的子目录。

  • bucket:在hdfs中表现为同一个表目录下根据hash散列之后的多个文件。

二、Hive表类型

2.1 Hive 数据类型

Hive的基本数据类型有:TINYINT,SAMLLINT,INT,BIGINT,BOOLEAN,FLOAT,DOUBLE,STRING,TIMESTAMP(V0.8.0+)和BINARY(V0.8.0+)

Hive的集合类型有:STRUCT,MAP和ARRAY

Hive主要有四种数据模型(即表):内部表、外部表、分区表和桶表。

表的元数据保存传统的数据库的表中,当前hive只支持Derby和MySQL数据库

2.2 Hive 内部表

Hive中的内部表和传统数据库中的表在概念上是类似的,Hive的每个表都有自己的存储目录,除了外部表外,所有的表数据都存放在配置在hive-site.xml文件的${hive.metastore.warehouse.dir}/table_name目录下。

创建内部表:

  1. CREATE TABLE IF NOT EXISTS students(user_no INT,name STRING,sex STRING,  
  2.          grade STRING COMMOT '班级')COMMONT '学生表'  
  3. ROW FORMAT DELIMITED 
  4. FIELDS TERMINATED BY ','
  5. STORE AS TEXTFILE;      

2.3 Hive 外部表

被external修饰的为外部表(external table),外部表指向已经存在在Hadoop HDFS上的数据,除了在删除外部表时只删除元数据而不会删除表数据外,其他和内部表很像。

创建外部表:

  1. CREATE EXTERNAL TABLE IF NOT EXISTS students(user_no INT,name STRING,sex STRING,  
  2.          class STRING COMMOT '班级')COMMONT '学生表'  
  3. ROW FORMAT DELIMITED  
  4. FIELDS TERMINATED BY ','  
  5. STORE AS SEQUENCEFILE 
  6. LOCATION '/usr/test/data/students.txt';   

2.4 Hive 分区表

分区表的每一个分区都对应数据库中相应分区列的一个索引,但是其组织方式和传统的关系型数据库不同。在Hive中,分区表的每一个分区都对应表下的一个目录,所有的分区的数据都存储在对应的目录中。

比如说,分区表partitinTable有包含nation(国家)、ds(日期)和city(城市)3个分区,其中nation = china,ds = 20130506,city = Shanghai则对应HDFS上的目录为:

/datawarehouse/partitinTable/nation=china/city=Shanghai/ds=20130506/

分区中定义的变量名不能和表中的列相同

创建分区表:

  1. CREATE TABLE IF NOT EXISTS students(user_no INT,name STRING,sex STRING,
  2.          class STRING COMMOT '班级')COMMONT '学生表'  
  3. PARTITIONED BY (ds STRING,country STRING)  
  4. ROW FORMAT DELIMITED  
  5. FIELDS TERMINATED BY ','  
  6. STORE AS SEQUENCEFILE;

2.5 Hive 分桶表

桶表就是对指定列进行哈希(hash)计算,然后会根据hash值进行切分数据,将具有不同hash值的数据写到每个桶对应的文件中。

将数据按照指定的字段进行分成多个桶中去,说白了就是将数据按照字段进行划分,可以将数据按照字段划分到多个文件当中去。

创建分桶表:

  1. CREATE TABLE IF NOT EXISTS students(user_no INT,name STRING,sex STRING,  
  2.          class STRING COMMOT '班级',score SMALLINT COMMOT '总分')COMMONT '学生表'  
  3. PARTITIONED BY (ds STRING,country STRING)  
  4. CLUSTERED BY(user_no) SORTED BY(score) INTO 32 BUCKETS  
  5. ROW FORMAT DELIMITED  
  6. FIELDS TERMINATED BY ','  
  7. STORE AS SEQUENCEFILE;      

2.6 Hive 视图

在 Hive 中,视图是逻辑数据结构,可以通过隐藏复杂数据操作(Joins, 子查询, 过滤,数据扁平化)来于简化查询操作。

与关系数据库不同的是,Hive视图并不存储数据或者实例化。一旦创建 HIve 视图,它的 schema 也会立刻确定下来。对底层表后续的更改(如 增加新列)并不会影响视图的 schema。如果底层表被删除或者改变,之后对视图的查询将会 failed。基于以上 Hive view 的特性,我们在ETL和数据仓库中对于经常变化的表应慎重使用视图

创建视图:

  1. CREATE VIEW employee_skills
  2.  AS
  3. SELECT name, skills_score['DB'AS DB,
  4. skills_score['Perl'AS Perl, 
  5. skills_score['Python'AS Python,
  6. skills_score['Sales'as Sales, 
  7. skills_score['HR'as HR 
  8. FROM employee;

创建视图的时候是不会触发 MapReduce 的 Job,因为只存在元数据的改变。

但是,当对视图进行查询的时候依然会触发一个 MapReduce Job 进程:SHOW CREATE TABLE 或者 DESC FORMATTED TABLE 语句来显示通过  CREATE VIEW  语句创建的视图。以下是对Hive 视图的 DDL操作:

更改视图的属性:

  1. ALTER VIEW employee_skills 
  2. SET TBLPROPERTIES ('comment' = 'This is a view');

重新定义视图:

  1. ALTER VIEW employee_skills AS 
  2. SELECT * from employee ;

删除视图:

DROP VIEW employee_skills; 

三、Hive数据抽样

当数据规模不断膨胀时,我们需要找到一个数据的子集来加快数据分析效率。因此我们就需要通过筛选和分析数据集为了进行模式 & 趋势识别。目前来说有三种方式来进行抽样:随机抽样,桶表抽样,和块抽样。

3.1 随机抽样

关键词:rand()函数

使用rand()函数进行随机抽样,limit关键字限制抽样返回的数据,其中rand函数前的distribute和sort关键字可以保证数据在mapper和reducer阶段是随机分布的。

案例如下:

  1. select * from table_name 
  2. where col=xxx 
  3. distribute by rand() sort by rand() 
  4. limit num; 

使用order 关键词:

案例如下:

  1. select * from table_name 
  2. where col=xxx 
  3. order by rand() 
  4. limit num; 

经测试对比,千万级数据中进行随机抽样 order by方式耗时更长,大约多30秒左右。

3.2 块抽样

关键词:tablesample()函数

  1. tablesample(n percent) 根据hive表数据的大小按比例抽取数据,并保存到新的hive表中。如:抽取原hive表中10%的数据

注意:测试过程中发现,select语句不能带where条件且不支持子查询,可通过新建中间表或使用随机抽样解决。

select * from xxx tablesample(10 percent) 数字与percent之间要有空格
  1. tablesample(nM) 指定抽样数据的大小,单位为M。

select * from xxx tablesample(20M) 数字与M之间不要有空格
  1. tablesample(n rows) 指定抽样数据的行数,其中n代表每个map任务均取n行数据,map数量可通过hive表的简单查询语句确认(关键词:number of mappers: x)

select * from xxx tablesample(100 rows) 数字与rows之间要有空格

3.3 桶表抽样

关键词:**tablesample (bucket x out of y [on colname])**。

其中x是要抽样的桶编号,桶编号从1开始,colname表示抽样的列,y表示桶的数量。

hive中分桶其实就是根据某一个字段Hash取模,放入指定数据的桶中,比如将表table_1按照ID分成100个桶,其算法是hash(id) % 100,这样,hash(id) % 100 = 0的数据被放到第一个桶中,hash(id) % 100 = 1的记录被放到第二个桶中。创建分桶表的关键语句为:CLUSTER BY语句。

例如:将表随机分成10组,抽取其中的第一个桶的数据:

  1. select * from table_01 
  2. tablesample(bucket 1 out of 10 on rand())

四、Hive计算引擎

目前Hive支持MapReduce、Tez和Spark 三种计算引擎。

4.1 MR计算引擎

MR运行的完整过程:

Map在读取数据时,先将数据拆分成若干数据,并读取到Map方法中被处理。数据在输出的时候,被分成若干分区并写入内存缓存(buffer)中,内存缓存被数据填充到一定程度会溢出到磁盘并排序,当Map执行完后会将一个机器上输出的临时文件进行归并存入到HDFS中。

当Reduce启动时,会启动一个线程去读取Map输出的数据,并写入到启动Reduce机器的内存中,在数据溢出到磁盘时会对数据进行再次排序。当读取数据完成后会将临时文件进行合并,作为Reduce函数的数据源。

4.2 Tez计算引擎

Apache Tez是进行大规模数据处理且支持DAG作业的计算框架,它直接源于MapReduce框架,除了能够支持MapReduce特性,还支持新的作业形式,并允许不同类型的作业能够在一个集群中运行。

Tez将原有的Map和Reduce两个操作简化为一个概念——Vertex,并将原有的计算处理节点拆分成多个组成部分:Vertex Input、Vertex Output、Sorting、Shuffling和Merging。计算节点之间的数据通信被统称为Edge,这些分解后的元操作可以任意灵活组合,产生新的操作,这些操作经过一些控制程序组装后,可形成一个大的DAG作业。

通过允许Apache Hive运行复杂的DAG任务,Tez可以用来处理数据,之前需要多个MR jobs,现在一个Tez任务中。

Tez和MapReduce作业的比较

  • Tez绕过了MapReduce很多不必要的中间的数据存储和读取的过程,直接在一个作业中表达了MapReduce需要多个作业共同协作才能完成的事情。

  • Tez和MapReduce一样都运行使用YARN作为资源调度和管理。但与MapReduce on YARN不同,Tez on YARN并不是将作业提交到ResourceManager,而是提交到AMPoolServer的服务上,AMPoolServer存放着若干已经预先启动ApplicationMaster的服务。

  • 当用户提交一个作业上来后,AMPoolServer从中选择一个ApplicationMaster用于管理用户提交上来的作业,这样既可以节省ResourceManager创建ApplicationMaster的时间,而又能够重用每个ApplicationMaster的资源,节省了资源释放和创建时间。

Tez相比于MapReduce有几点重大改进

  • 当查询需要有多个reduce逻辑时,Hive的MapReduce引擎会将计划分解,每个Redcue提交一个MR作业。这个链中的所有MR作业都需要逐个调度,每个作业都必须从HDFS中重新读取上一个作业的输出并重新洗牌。而在Tez中,几个reduce接收器可以直接连接,数据可以流水线传输,而不需要临时HDFS文件,这种模式称为MRR(Map-reduce-reduce*)。

  • Tez还允许一次发送整个查询计划,实现应用程序动态规划,从而使框架能够更智能地分配资源,并通过各个阶段流水线传输数据。对于更复杂的查询来说,这是一个巨大的改进,因为它消除了IO/sync障碍和各个阶段之间的调度开销。

  • 在MapReduce计算引擎中,无论数据大小,在洗牌阶段都以相同的方式执行,将数据序列化到磁盘,再由下游的程序去拉取,并反序列化。Tez可以允许小数据集完全在内存中处理,而MapReduce中没有这样的优化。仓库查询经常需要在处理完大量的数据后对小型数据集进行排序或聚合,Tez的优化也能极大地提升效率。

4.3 Spark计算引擎

Apache Spark是专为大规模数据处理而设计的快速、通用支持DAG(有向无环图)作业的计算引擎,类似于Hadoop MapReduce的通用并行框架,可用来构建大型的、低延迟的数据分析应用程序。

Spark是用于大规模数据处理的统一分析引擎,基于内存计算,提高了在大数据环境下数据处理的实时性,同时保证了高容错性高可伸缩性,允许用户将Spark部署在大量硬件之上,形成集群。

Spark运行流程

Spark运行流程

Spark运行流程

Spark具有以下几个特性。

1.高效性

Spark会将作业构成一个DAG,优化了大型作业一些重复且浪费资源的操作,对查询进行了优化,重新编写了物理执行引擎,如可以实现MRR模式。

2.易用性

Spark不同于MapReducer只提供两种简单的编程接口,它提供了多种编程接口去操作数据,这些操作接口如果使用MapReduce去实现,需要更多的代码。Spark的操作接口可以分为两类:transformation(转换)和action(执行)。Transformation包含map、flatmap、distinct、reduceByKey和join等转换操作;Action包含reduce、collect、count和first等操作。

3.通用性

Spark针对实时计算、批处理、交互式查询,提供了统一的解决方案。但在批处理方面相比于MapReduce处理同样的数据,Spark所要求的硬件设施更高,MapReduce在相同的设备下所能处理的数据量会比Spark多。所以在实际工作中,Spark在批处理方面只能算是MapReduce的一种补充。

4.兼容性

Spark和MapReduce一样有丰富的产品生态做支撑。例如Spark可以使用YARN作为资源管理器,Spark也可以处理Hbase和HDFS上的数据。

五、存储与压缩

5.1 Hive存储格式

Hive支持的存储数的格式主要有:TEXTFILE(行式存储) 、SEQUENCEFILE(行式存储)、ORC(列式存储)、PARQUET(列式存储)。

5.1.1 行式存储和列式存储

上图左边为逻辑表,右边第一个为行式存储,第二个为列式存储。

行存储的特点: 查询满足条件的一整行数据的时候,列存储则需要去每个聚集的字段找到对应的每个列的值,行存储只需要找到其中一个值,其余的值都在相邻地方,所以此时行存储查询的速度更快。select *

列存储的特点: 因为每个字段的数据聚集存储,在查询只需要少数几个字段的时候,能大大减少读取的数据量;每个字段的数据类型一定是相同的,列式存储可以针对性的设计更好的设计压缩算法。 select 某些字段效率更高。

5.1.2 TEXTFILE

默认格式,数据不做压缩,磁盘开销大,数据解析开销大。可结合Gzip、Bzip2使用(系统自动检查,执行查询时自动解压),但使用这种方式,hive不会对数据进行切分,从而无法对数据进行并行操作。

5.1.3 ORC格式

Orc (Optimized Row Columnar)是hive 0.11版里引入的新的存储格式。

可以看到每个Orc文件由1个或多个stripe组成,每个stripe250MB大小,这个Stripe实际相当于RowGroup概念,不过大小由4MB->250MB,这样能提升顺序读的吞吐率。每个Stripe里有三部分组成,分别是Index Data,Row Data,Stripe Footer:

  1. Index Data:一个轻量级的index,默认是每隔1W行做一个索引。这里做的索引只是记录某行的各字段在Row Data中的offset。

  2. Row Data:存的是具体的数据,先取部分行,然后对这些行按列进行存储。对每个列进行了编码,分成多个Stream来存储。

  3. Stripe Footer:存的是各个stripe的元数据信息

每个文件有一个File Footer,这里面存的是每个Stripe的行数,每个Column的数据类型信息等;每个文件的尾部是一个PostScript,这里面记录了整个文件的压缩类型以及FileFooter的长度信息等。在读取文件时,会seek到文件尾部读PostScript,从里面解析到File Footer长度,再读FileFooter,从里面解析到各个Stripe信息,再读各个Stripe,即从后往前读。

5.1.4 PARQUET格式

Parquet是面向分析型业务的列式存储格式,由Twitter和Cloudera合作开发,2015年5月从Apache的孵化器里毕业成为Apache顶级项目。

Parquet文件是以二进制方式存储的,所以是不可以直接读取的,文件中包括该文件的数据和元数据,因此Parquet格式文件是自解析的。

通常情况下,在存储Parquet数据的时候会按照Block大小设置行组的大小,由于一般情况下每一个Mapper任务处理数据的最小单位是一个Block,这样可以把每一个行组由一个Mapper任务处理,增大任务执行并行度。Parquet文件的格式如下图所示。

上图展示了一个Parquet文件的内容,一个文件中可以存储多个行组,文件的首位都是该文件的Magic Code,用于校验它是否是一个Parquet文件,Footer length记录了文件元数据的大小,通过该值和文件长度可以计算出元数据的偏移量,文件的元数据中包括每一个行组的元数据信息和该文件存储数据的Schema信息。除了文件中每一个行组的元数据,每一页的开始都会存储该页的元数据,在Parquet中,有三种类型的页:数据页、字典页和索引页。数据页用于存储当前行组中该列的值,字典页存储该列值的编码字典,每一个列块中最多包含一个字典页,索引页用来存储当前行组下该列的索引,目前Parquet中还不支持索引页。

5.2 Hive压缩格式

在实际工作当中,hive当中处理的数据,一般都需要经过压缩,前期我们在学习hadoop的时候,已经配置过hadoop的压缩,我们这里的hive也是一样的可以使用压缩来节省我们的MR处理的网络带宽

mr支持的压缩格式:

压缩格式工具算法文件扩展名是否可切分
DEFAULTDEFAULT.deflate
GzipgzipDEFAULT.gz
bzip2bzip2bzip2.bz2
LZOlzopLZO.lzo
LZ4LZ4.lz4
SnappySnappy.snappy

hadoop支持的解压缩的类:

压缩格式对应的编码/解码器
DEFLATEorg.apache.hadoop.io.compress.DefaultCodec
gziporg.apache.hadoop.io.compress.GzipCodec
bzip2org.apache.hadoop.io.compress.BZip2Codec
LZOcom.hadoop.compression.lzo.LzopCodec
LZ4org.apache.hadoop.io.compress.Lz4Codec
Snappyorg.apache.hadoop.io.compress.SnappyCodec

压缩性能的比较:

压缩算法原始文件大小压缩文件大小压缩速度解压速度
gzip8.3GB1.8GB17.5MB/s58MB/s
bzip28.3GB1.1GB2.4MB/s9.5MB/s
LZO8.3GB2.9GB49.3MB/s74.6MB/s

Snappy生成的压缩文件要大20%到100%。在64位模式下的core i7处理器的单内核上,Snappy以250 MB/秒或更多的速度压缩,并以500 MB/秒或更多的速度解压。

实现压缩hadoop需要配置的压缩参数:

hive配置压缩的方式:

  1. 开启map端的压缩方式:

  1. 1.1)开启hive中间传输数据压缩功能
  2.  hive (default)>set hive.exec.compress.intermediate=true;
  3. 1.2)开启mapreduce中map输出压缩功能
  4.  hive (default)>set mapreduce.map.output.compress=true;
  5. 1.3)设置mapreduce中map输出数据的压缩方式
  6.  hive (default)>set mapreduce.map.output.compress.codec= org.apache.hadoop.io.compress.SnappyCodec;
  7. 1.4)执行查询语句
  8.  select count(1from score;
  1. 开启reduce端的压缩方式

  1. 1)开启hive最终输出数据压缩功能
  2.  hive (default)>set hive.exec.compress.output=true;
  3. 2)开启mapreduce最终输出数据压缩
  4.  hive (default)>set mapreduce.output.fileoutputformat.compress=true;
  5. 3)设置mapreduce最终数据输出压缩方式
  6.  hive (default)> set mapreduce.output.fileoutputformat.compress.codec = org.apache.hadoop.io.compress.SnappyCodec;
  7. 4)设置mapreduce最终数据输出压缩为块压缩
  8.  hive (default)>set mapreduce.output.fileoutputformat.compress.type=BLOCK;
  9. 5)测试一下输出结果是否是压缩文件
  10.  insert overwrite local directory '/export/servers/snappy' select * from score distribute by s_id sort by s_id desc;

5.3 存储和压缩相结合

ORC存储方式的压缩:

KeyDefaultNotes
orc.compressZLIB高级压缩(可选: NONE, ZLIB, SNAPPY)
orc.compress.size262,144每个压缩块中的字节数
orc.stripe.size67,108,864每条stripe中的字节数
orc.row.index.stride10,000索引条目之间的行数(必须是>= 1000)
orc.create.indextrue是否创建行索引
orc.bloom.filter.columns""逗号分隔的列名列表,应该为其创建bloom过滤器
orc.bloom.filter.fpp0.05bloom过滤器的假阳性概率(必须是>0.0和<1.0)

创建一个非压缩的ORC存储方式:

  1. 1)建表语句
  2.     create table log_orc_none(
  3.     track_time string,
  4.     url string,
  5.     session_id string,
  6.     referer string,
  7.     ip string,
  8.     end_user_id string,
  9.     city_id string
  10.     )ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t' STORED AS orc tblproperties ("orc.compress"="NONE");
  11. 2)插入数据
  12.  insert into table log_orc_none select * from log_text ;
  13. 3)查看插入后数据
  14.  dfs -du -h /user/hive/warehouse/myhive.db/log_orc_none;
  15.  结果显示:
  16.  7.7 M  /user/hive/warehouse/log_orc_none/123456_0

创建一个SNAPPY压缩的ORC存储方式:

  1. 1)建表语句
  2.     create table log_orc_snappy(
  3.     track_time string,
  4.     url string,
  5.     session_id string,
  6.     referer string,
  7.     ip string,
  8.     end_user_id string,
  9.     city_id string
  10.     )ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t' STORED AS orc tblproperties ("orc.compress"="SNAPPY");
  11. 2)插入数据
  12.  insert into table log_orc_snappy select * from log_text ;
  13. 3)查看插入后数据
  14.  dfs -du -h /user/hive/warehouse/myhive.db/log_orc_snappy ;
  15.  结果显示: 
  16.  3.8 M  /user/hive/warehouse/log_orc_snappy/123456_0
  17. 4)上一节中默认创建的ORC存储方式,导入数据后的大小为
  18.  2.8 M  /user/hive/warehouse/log_orc/123456_0
  19.  比Snappy压缩的还小。原因是orc存储文件默认采用ZLIB压缩。比snappy压缩的小。
  20. 5)存储方式和压缩总结:
  21.  在实际的项目开发当中,hive表的数据存储格式一般选择:orc或parquet。压缩方式一般选择snappy。

5.4 主流存储文件性能对比

从存储文件的压缩比和查询速度两个角度对比。

压缩比比较

  • TextFile

  1. 1)创建表,存储数据格式为TEXTFILE
  2.     create table log_text (
  3.     track_time string,
  4.     url string,
  5.     session_id string,
  6.     referer string,
  7.     ip string,
  8.     end_user_id string,
  9.     city_id string
  10.     )ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t' STORED AS TEXTFILE ;
  11. 2)向表中加载数据
  12.  load data local inpath '/export/servers/hivedatas/log.data' into table log_text ;
  13. 3)查看表中数据大小,大小为18.1M
  14.  dfs -du -h /user/hive/warehouse/myhive.db/log_text;
  15.  结果显示: 
  16.  18.1 M  /user/hive/warehouse/log_text/log.data
  • ORC

  1. 1)创建表,存储数据格式为ORC
  2.     create table log_orc(
  3.     track_time string,
  4.     url string,
  5.     session_id string,
  6.     referer string,
  7.     ip string,
  8.     end_user_id string,
  9.     city_id string
  10.     )ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t' STORED AS orc ;
  11. 2)向表中加载数据
  12.  insert into table log_orc select * from log_text ;
  13. 3)查看表中数据大小
  14.  dfs -du -h /user/hive/warehouse/myhive.db/log_orc;
  15.  结果显示:
  16.  2.8 M  /user/hive/warehouse/log_orc/123456_0
  • Parquet

  1. 1)创建表,存储数据格式为parquet
  2.     create table log_parquet(
  3.     track_time string,
  4.     url string,
  5.     session_id string,
  6.     referer string,
  7.     ip string,
  8.     end_user_id string,
  9.     city_id string
  10.     )ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t' STORED AS PARQUET ; 
  11. 2)向表中加载数据
  12.  insert into table log_parquet select * from log_text ;
  13. 3)查看表中数据大小
  14.  dfs -du -h /user/hive/warehouse/myhive.db/log_parquet;
  15.  结果显示:
  16.  13.1 M  /user/hive/warehouse/log_parquet/123456_0

数据压缩比结论:

ORC > Parquet > textFile

存储文件的查询效率测试

  • textFile

  1. hive (default)> select count(*from log_text;
  2. _c0
  3. 100000
  4. Time taken: 21.54 seconds, Fetched: 1 row(s)  
  • ORC

  1. hive (default)> select count(*from log_orc;
  2. _c0
  3. 100000
  4. Time taken: 20.867 seconds, Fetched: 1 row(s) 
  • Parquet

  1. hive (default)> select count(*from log_parquet; 
  2. _c0
  3. 100000
  4. Time taken: 22.922 seconds, Fetched: 1 row(s)

存储文件的查询效率比较:

ORC > TextFile > Parquet

六、Hive Sql 大全

本节基本涵盖了Hive日常使用的所有SQL,因为SQL太多,所以将SQL进行了如下分类: 一、DDL语句(数据定义语句):
对数据库的操作:包含创建、修改数据库
对数据表的操作:分为内部表及外部表,分区表和分桶表
二、DQL语句(数据查询语句):
单表查询、关联查询
hive函数:包含聚合函数,条件函数,日期函数,字符串函数等
行转列及列转行:lateral view 与 explode 以及 reflect
窗口函数与分析函数
其他一些窗口函数

hive的DDL语法

对数据库的操作

  • 创建数据库:

  1. create database if not exists myhive;
  2. 说明:hive的表存放位置模式是由hive-site.xml当中的一个属性指定的 :hive.metastore.warehouse.dir
  3. 创建数据库并指定hdfs存储位置 :
  4. create database myhive2 location '/myhive2';
  • 修改数据库:

alter  database  myhive2  set  dbproperties('createtime'='20210329');

说明:可以使用alter database 命令来修改数据库的一些属性。但是数据库的元数据信息是不可更改的,包括数据库的名称以及数据库所在的位置

  • 查看数据库详细信息

  1. 查看数据库基本信息
  2. hive (myhive)> desc  database  myhive2;
  3. 查看数据库更多详细信息
  4. hive (myhive)> desc database extended  myhive2;
  • 删除数据库

  1. 删除一个空数据库,如果数据库下面有数据表,那么就会报错
  2. drop  database  myhive2;
  3. 强制删除数据库,包含数据库下面的表一起删除
  4. drop  database  myhive  cascade; 

对数据表的操作

对管理表(内部表)的操作:
  • 建内部表:

  1. hive (myhive)> use myhive; -- 使用myhive数据库
  2. hive (myhive)> create table stu(id int,name string);
  3. hive (myhive)> insert into stu values (1,"zhangsan");
  4. hive (myhive)> insert into stu values (1,"zhangsan"),(2,"lisi");  -- 一次插入多条数据
  5. hive (myhive)> select * from stu;
  • hive建表时候的字段类型:

分类类型描述字面量示例
原始类型BOOLEANtrue/falseTRUE
TINYINT1字节的有符号整数 -128~1271Y
SMALLINT2个字节的有符号整数,-32768~327671S
INT4个字节的带符号整数1
BIGINT8字节带符号整数1L
FLOAT4字节单精度浮点数1.0
DOUBLE8字节双精度浮点数1.0
DEICIMAL任意精度的带符号小数1.0
STRING字符串,变长“a”,’b’
VARCHAR变长字符串“a”,’b’
CHAR固定长度字符串“a”,’b’
BINARY字节数组无法表示
TIMESTAMP时间戳,毫秒值精度122327493795
DATE日期‘2016-03-29’
INTERVAL时间频率间隔
复杂类型ARRAY有序的的同类型的集合array(1,2)
MAPkey-value,key必须为原始类型,value可以任意类型map(‘a’,1,’b’,2)
STRUCT字段集合,类型可以不同struct(‘1’,1,1.0), named_stract(‘col1’,’1’,’col2’,1,’clo3’,1.0)
UNION在有限取值范围内的一个值create_union(1,’a’,63)

对decimal类型简单解释下
用法:decimal(11,2) 代表最多有11位数字,其中后2位是小数,整数部分是9位;如果整数部分超过9位,则这个字段就会变成null;如果小数部分不足2位,则后面用0补齐两位,如果小数部分超过两位,则超出部分四舍五入
也可直接写 decimal,后面不指定位数,默认是 decimal(10,0) 整数10位,没有小数

  • 创建表并指定字段之间的分隔符

create  table if not exists stu2(id int ,name string) row format delimited fields terminated by '\t' stored as textfile location '/user/stu2';

row format delimited fields terminated by '\t' 指定字段分隔符,默认分隔符为 '\001'
stored as 指定存储格式
location 指定存储位置

  • 根据查询结果创建表

create table stu3 as select * from stu2;
  • 根据已经存在的表结构创建表

create table stu4 like stu2;
  • 查询表的结构

  1. 只查询表内字段及属性
  2. desc stu2;
  3. 详细查询
  4. desc formatted  stu2;
  • 查询创建表的语句

show create table stu2;
对外部表操作

外部表因为是指定其他的hdfs路径的数据加载到表当中来,所以hive表会认为自己不完全独占这份数据,所以删除hive表的时候,数据仍然存放在hdfs当中,不会删掉,只会删除表的元数据

  • 构建外部表

create external table student (s_id string,s_name string) row format delimited fields terminated by '\t';
  • 从本地文件系统向表中加载数据

  1. 追加操作
  2. load data local inpath '/export/servers/hivedatas/student.csv' into table student;
  3. 覆盖操作
  4. load data local inpath '/export/servers/hivedatas/student.csv' overwrite  into table student;
  • 从hdfs文件系统向表中加载数据

  1. load data inpath '/hivedatas/techer.csv' into table techer;
  2. 加载数据到指定分区
  3. load data inpath '/hivedatas/techer.csv' into table techer partition(cur_date=20201210);
  • 注意
    1.使用 load data local 表示从本地文件系统加载,文件会拷贝到hdfs上
    2.使用 load data 表示从hdfs文件系统加载,文件会直接移动到hive相关目录下,注意不是拷贝过去,因为hive认为hdfs文件已经有3副本了,没必要再次拷贝了
    3.如果表是分区表,load 时不指定分区会报错
    4.如果加载相同文件名的文件,会被自动重命名

对分区表的操作
  • 创建分区表的语法

create table score(s_id string, s_score int) partitioned by (month string);
  • 创建一个表带多个分区

create table score2 (s_id string, s_score int) partitioned by (year string,month string,day string);

注意:
hive表创建的时候可以用 location 指定一个文件或者文件夹,当指定文件夹时,hive会加载文件夹下的所有文件,当表中无分区时,这个文件夹下不能再有文件夹,否则报错
当表是分区表时,比如 partitioned by (day string), 则这个文件夹下的每一个文件夹就是一个分区,且文件夹名为 day=20201123 这种格式,然后使用:msck repair table score; 修复表结构,成功之后即可看到数据已经全部加载到表当中去了

  • 加载数据到一个分区的表中

load data local inpath '/export/servers/hivedatas/score.csv' into table score partition (month='201806');
  • 加载数据到一个多分区的表中去

load data local inpath '/export/servers/hivedatas/score.csv' into table score2 partition(year='2018',month='06',day='01');
  • 查看分区

show  partitions  score;
  • 添加一个分区

alter table score add partition(month='201805');
  • 同时添加多个分区

 alter table score add partition(month='201804'partition(month = '201803');

注意:添加分区之后就可以在hdfs文件系统当中看到表下面多了一个文件夹

  • 删除分区

 alter table score drop partition(month = '201806');
对分桶表操作

将数据按照指定的字段进行分成多个桶中去,就是按照分桶字段进行哈希划分到多个文件当中去
分区就是分文件夹,分桶就是分文件

分桶优点:
1. 提高join查询效率
2. 提高抽样效率

  • 开启hive的捅表功能

set hive.enforce.bucketing=true;
  • 设置reduce的个数

set mapreduce.job.reduces=3;
  • 创建桶表

create table course (c_id string,c_name string) clustered by(c_id) into 3 buckets;

桶表的数据加载:由于桶表的数据加载通过hdfs dfs -put文件或者通过load data均不可以,只能通过insert overwrite 进行加载
所以把文件加载到桶表中,需要先创建普通表,并通过insert overwrite的方式将普通表的数据通过查询的方式加载到桶表当中去

  • 通过insert overwrite给桶表中加载数据

insert overwrite table course select * from course_common cluster by(c_id);  -- 最后指定桶字段
修改表和删除表
  • 修改表名称

alter  table  old_table_name  rename  to  new_table_name;
  • 增加/修改列信息

  1. 查询表结构
  2. desc score5;
  3. 添加列
  4. alter table score5 add columns (mycol string, mysco string);
  5. 更新列
  6. alter table score5 change column mysco mysconew int;
  • 删除表操作

drop table score5;
  • 清空表操作

  1. truncate table score6;
  2. 说明:只能清空管理表,也就是内部表;清空外部表,会产生错误

注意:truncate 和 drop:
如果 hdfs 开启了回收站,drop 删除的表数据是可以从回收站恢复的,表结构恢复不了,需要自己重新创建;truncate 清空的表是不进回收站的,所以无法恢复truncate清空的表
所以 truncate 一定慎用,一旦清空将无力回天

向hive表中加载数据
  • 直接向分区表中插入数据

insert into table score partition(month ='201807'values ('001','002','100');
  • 通过load方式加载数据

 load data local inpath '/export/servers/hivedatas/score.csv' overwrite into table score partition(month='201806');
  • 通过查询方式加载数据

insert overwrite table score2 partition(month = '201806'select s_id,c_id,s_score from score1;
  • 查询语句中创建表并加载数据

create table score2 as select * from score1;
  • 在创建表是通过location指定加载数据的路径

create external table score6 (s_id string,c_id string,s_score int) row format delimited fields terminated by ',' location '/myscore';
  • export导出与import 导入 hive表数据(内部表操作)

  1. create table techer2 like techer; --依据已有表结构创建表
  2. export table techer to  '/export/techer';
  3. import table techer2 from '/export/techer';
hive表中数据导出
  • insert导出

  1. 将查询的结果导出到本地
  2. insert overwrite local directory '/export/servers/exporthive' select * from score;
  3. 将查询的结果格式化导出到本地
  4. insert overwrite local directory '/export/servers/exporthive' row format delimited fields terminated by '\t' collection items terminated by '#' select * from student;
  5. 将查询的结果导出到HDFS上(没有local)
  6. insert overwrite directory '/export/servers/exporthive' row format delimited fields terminated by '\t' collection items terminated by '#' select * from score;
  • Hadoop命令导出到本地

dfs -get /export/servers/exporthive/000000_0 /export/servers/exporthive/local.txt;
  • hive shell 命令导出

  1. 基本语法:(hive -f/-e 执行语句或者脚本 > file
  2. hive -e "select * from myhive.score;" > /export/servers/exporthive/score.txt
  3. hive -f export.sh > /export/servers/exporthive/score.txt
  • export导出到HDFS上

export table score to '/export/exporthive/score';

hive的DQL查询语法

单表查询

  1. SELECT [ALL | DISTINCT] select_expr, select_expr, ... 
  2. FROM table_reference
  3. [WHERE where_condition] 
  4. [GROUP BY col_list [HAVING condition]] 
  5. [CLUSTER BY col_list 
  6.   | [DISTRIBUTE BY col_list] [SORT BYORDER BY col_list] 
  7. [LIMIT number]

注意:
1、order by 会对输入做全局排序,因此只有一个reducer,会导致当输入规模较大时,需要较长的计算时间。
2、sort by不是全局排序,其在数据进入reducer前完成排序。因此,如果用sort by进行排序,并且设置mapred.reduce.tasks>1,则sort by只保证每个reducer的输出有序,不保证全局有序。
3、distribute by(字段)根据指定的字段将数据分到不同的reducer,且分发算法是hash散列。
4、Cluster by(字段) 除了具有Distribute by的功能外,还会对该字段进行排序。
因此,如果分桶和sort字段是同一个时,此时,cluster by = distribute by + sort by

  • WHERE语句

select * from score where s_score < 60;

注意:
小于某个值是不包含null的,如上查询结果是把 s_score 为 null 的行剔除的

  • GROUP BY 分组

  1. select s_id ,avg(s_score) from score group by s_id;
  2. 分组后对数据进行筛选,使用having
  3.  select s_id ,avg(s_score) avgscore from score group by s_id having avgscore > 85;

注意:
如果使用 group by 分组,则 select 后面只能写分组的字段或者聚合函数
where和having区别:
1 having是在 group by 分完组之后再对数据进行筛选,所以having 要筛选的字段只能是分组字段或者聚合函数
2 where 是从数据表中的字段直接进行的筛选的,所以不能跟在gruop by后面,也不能使用聚合函数

  • join 连接

  1. INNER JOIN 内连接:只有进行连接的两个表中都存在与连接条件相匹配的数据才会被保留下来
  2. select * from techer t [innerjoin course c on t.t_id = c.t_id; -- inner 可省略
  3. LEFT OUTER JOIN 左外连接:左边所有数据会被返回,右边符合条件的被返回
  4. select * from techer t left join course c on t.t_id = c.t_id; -- outer可省略
  5. RIGHT OUTER JOIN 右外连接:右边所有数据会被返回,左边符合条件的被返回、
  6. select * from techer t right join course c on t.t_id = c.t_id;
  7. FULL OUTER JOIN 满外(全外)连接: 将会返回所有表中符合条件的所有记录。如果任一表的指定字段没有符合条件的值的话,那么就使用NULL值替代。
  8. SELECT * FROM techer t FULL JOIN course c ON t.t_id = c.t_id ;

注:1. hive2版本已经支持不等值连接,就是 join on条件后面可以使用大于小于符号了;并且也支持 join on 条件后跟or (早前版本 on 后只支持 = 和 and,不支持 > < 和 or)
2.如hive执行引擎使用MapReduce,一个join就会启动一个job,一条sql语句中如有多个join,则会启动多个job

注意:表之间用逗号(,)连接和 inner join 是一样的
select * from table_a,table_b where table_a.id=table_b.id;
它们的执行效率没有区别,只是书写方式不同,用逗号是sql 89标准,join 是sql 92标准。用逗号连接后面过滤条件用 where ,用 join 连接后面过滤条件是 on。

  • order by 排序

  1. 全局排序,只会有一个reduce
  2. ASC(ascend): 升序(默认) DESC(descend): 降序
  3. SELECT * FROM student s LEFT JOIN score sco ON s.s_id = sco.s_id ORDER BY sco.s_score DESC;

注意:order by 是全局排序,所以最后只有一个reduce,也就是在一个节点执行,如果数据量太大,就会耗费较长时间

  • sort by 局部排序

  1. 每个MapReduce内部进行排序,对全局结果集来说不是排序。
  2. 设置reduce个数
  3. set mapreduce.job.reduces=3;
  4. 查看设置reduce个数
  5. set mapreduce.job.reduces;
  6. 查询成绩按照成绩降序排列
  7. select * from score sort by s_score;
  8.  
  9. 将查询结果导入到文件中(按照成绩降序排列)
  10. insert overwrite local directory '/export/servers/hivedatas/sort' select * from score sort by s_score;
  • distribute by 分区排序

  1. distribute by:类似MR中partition,进行分区,结合sort by使用
  2. 设置reduce的个数,将我们对应的s_id划分到对应的reduce当中去
  3. set mapreduce.job.reduces=7;
  4. 通过distribute by  进行数据的分区
  5. select * from score distribute by s_id sort by s_score;

注意:Hive要求 distribute by 语句要写在 sort by 语句之前

  • cluster by

  1. 当distribute bysort by字段相同时,可以使用cluster by方式.
  2. cluster by除了具有distribute by的功能外还兼具sort by的功能。但是排序只能是正序排序,不能指定排序规则为ASC或者DESC。
  3. 以下两种写法等价
  4. select * from score cluster by s_id;
  5. select * from score distribute by s_id sort by s_id;

Hive函数

聚合函数

hive支持 count(),max(),min(),sum(),avg() 等常用的聚合函数

注意:
聚合操作时要注意null值
count(*) 包含null值,统计所有行数
count(id) 不包含null值
min 求最小值是不包含null,除非所有值都是null
avg 求平均值也是不包含null

  • 非空集合总体变量函数: var_pop

  1. 语法: var_pop(col)
  2. 返回值: double
  3. 说明: 统计结果集中col非空集合的总体变量(忽略null
  • 非空集合样本变量函数: var_samp

  1. 语法: var_samp (col)
  2. 返回值: double
  3. 说明: 统计结果集中col非空集合的样本变量(忽略null
  • 总体标准偏离函数: stddev_pop

  1. 语法: stddev_pop(col)
  2. 返回值: double
  3. 说明: 该函数计算总体标准偏离,并返回总体变量的平方根,其返回值与VAR_POP函数的平方根相同
  • 中位数函数: percentile

  1. 语法: percentile(BIGINT col, p)
  2. 返回值: double
  3. 说明: 求准确的第pth个百分位数,p必须介于01之间,但是col字段目前只支持整数,不支持浮点数类型

关系运算

  1. 支持:等值(=)、不等值(!= 或 <>)、小于(<)、小于等于(<=)、大于(>)、大于等于(>=)
  2. 空值判断(is null)、非空判断(is not null)
  • LIKE比较: LIKE

  1. 语法: A LIKE B
  2. 操作类型: strings
  3. 描述: 如果字符串A或者字符串BNULL,则返回NULL;如果字符串A符合表达式B 的正则语法,则为TRUE;否则为FALSEB中字符”_”表示任意单个字符,而字符”%”表示任意数量的字符。
  • JAVA的LIKE操作: RLIKE

  1. 语法: A RLIKE B
  2. 操作类型: strings
  3. 描述: 如果字符串A或者字符串BNULL,则返回NULL;如果字符串A符合JAVA正则表达式B的正则语法,则为TRUE;否则为FALSE
  • REGEXP操作: REGEXP

  1. 语法: A REGEXP B
  2. 操作类型: strings
  3. 描述: 功能与RLIKE相同
  4. 示例:select 1 from tableName where 'footbar' REGEXP '^f.*r$';
  5. 结果:1

数学运算

支持所有数值类型:加(+)、减(-)、乘(*)、除(/)、取余(%)、位与(&)、位或(|)、位异或(^)、位取反(~)

逻辑运算

支持:逻辑与(and)、逻辑或(or)、逻辑非(not)

数值运算

  • 取整函数: round

  1. 语法: round(double a)
  2. 返回值: BIGINT
  3. 说明: 返回double类型的整数值部分 (遵循四舍五入)
  4. 示例:select round(3.1415926from tableName;
  5. 结果:3
  • 指定精度取整函数: round

  1. 语法: round(double a, int d)
  2. 返回值: DOUBLE
  3. 说明: 返回指定精度d的double类型
  4. hive> select round(3.1415926,4from tableName;
  5. 3.1416
  • 向下取整函数: floor

  1. 语法: floor(double a)
  2. 返回值: BIGINT
  3. 说明: 返回等于或者小于该double变量的最大的整数
  4. hive> select floor(3.641from tableName;
  5. 3
  • 向上取整函数: ceil

  1. 语法: ceil(double a)
  2. 返回值: BIGINT
  3. 说明: 返回等于或者大于该double变量的最小的整数
  4. hive> select ceil(3.1415926from tableName;
  5. 4
  • 取随机数函数: rand

  1. 语法: rand(),rand(int seed)
  2. 返回值: double
  3. 说明: 返回一个01范围内的随机数。如果指定种子seed,则会等到一个稳定的随机数序列
  4. hive> select rand() from tableName; -- 每次执行此语句得到的结果都不同
  5. 0.5577432776034763
  6. hive> select rand(100) ;  -- 只要指定种子,每次执行此语句得到的结果一样的
  7. 0.7220096548596434
  • 自然指数函数: exp

  1. 语法: exp(double a)
  2. 返回值: double
  3. 说明: 返回自然对数e的a次方
  4. hive> select exp(2) ;
  5. 7.38905609893065
  • 以10为底对数函数: log10

  1. 语法: log10(double a)
  2. 返回值: double
  3. 说明: 返回以10为底的a的对数
  4. hive> select log10(100) ;
  5. 2.0

此外还有:以2为底对数函数: log2()、对数函数: log()

  • 幂运算函数: pow

  1. 语法: pow(double a, double p)
  2. 返回值: double
  3. 说明: 返回a的p次幂
  4. hive> select pow(2,4) ;
  5. 16.0
  • 开平方函数: sqrt

  1. 语法: sqrt(double a)
  2. 返回值: double
  3. 说明: 返回a的平方根
  4. hive> select sqrt(16) ;
  5. 4.0
  • 二进制函数: bin

  1. 语法: bin(BIGINT a)
  2. 返回值: string
  3. 说明: 返回a的二进制代码表示
  4. hive> select bin(7) ;
  5. 111

十六进制函数: hex()、将十六进制转化为字符串函数: unhex()
进制转换函数: conv(bigint num, int from_base, int to_base) 说明: 将数值num从from_base进制转化到to_base进制

此外还有很多数学函数: 绝对值函数: abs()、正取余函数: pmod()、正弦函数: sin()、反正弦函数: asin()、余弦函数: cos()、反余弦函数: acos()、positive函数: positive()、negative函数: negative()

条件函数

  • If函数: if

  1. 语法: if(boolean testCondition, T valueTrue, T valueFalseOrNull)
  2. 返回值: T
  3. 说明: 当条件testCondition为TRUE时,返回valueTrue;否则返回valueFalseOrNull
  4. hive> select if(1=2,100,200) ;
  5. 200
  6. hive> select if(1=1,100,200) ;
  7. 100
  • 非空查找函数: coalesce

  1. 语法: coalesce(T v1, T v2, …)
  2. 返回值: T
  3. 说明: 返回参数中的第一个非空值;如果所有值都为NULL,那么返回NULL
  4. hive> select coalesce(null,'100','50') ;
  5. 100
  • 条件判断函数:case when (两种写法,其一)

  1. 语法: case when a then b [when c then d]* [else e] end
  2. 返回值: T
  3. 说明:如果a为TRUE,则返回b;如果c为TRUE,则返回d;否则返回e
  4. hive> select case when 1=2 then 'tom' when 2=2 then 'mary' else 'tim' end from tableName;
  5. mary
  • 条件判断函数:case when (两种写法,其二)

  1. 语法: case a when b then c [when d then e]* [else f] end
  2. 返回值: T
  3. 说明:如果a等于b,那么返回c;如果a等于d,那么返回e;否则返回f
  4. hive> Select case 100 when 50 then 'tom' when 100 then 'mary' else 'tim' end from tableName;
  5. mary

日期函数

注:以下SQL语句中的 from tableName 可去掉,不影响查询结果

    1. 获取当前UNIX时间戳函数: unix_timestamp

  1. 语法: unix_timestamp()
  2. 返回值: bigint
  3. 说明: 获得当前时区的UNIX时间戳
  4. hive> select unix_timestamp() from tableName;
  5. 1616906976
    1. UNIX时间戳转日期函数: from_unixtime

  1. 语法: from_unixtime(bigint unixtime[, string format])
  2. 返回值: string
  3. 说明: 转化UNIX时间戳(从1970-01-01 00:00:00 UTC到指定时间的秒数)到当前时区的时间格式
  4. hive> select from_unixtime(1616906976,'yyyyMMdd'from tableName;
  5. 20210328
    1. 日期转UNIX时间戳函数: unix_timestamp

  1. 语法: unix_timestamp(string date)
  2. 返回值: bigint
  3. 说明: 转换格式为"yyyy-MM-dd HH:mm:ss"的日期到UNIX时间戳。如果转化失败,则返回0
  4. hive>  select unix_timestamp('2021-03-08 14:21:15'from tableName;
  5. 1615184475
    1. 指定格式日期转UNIX时间戳函数: unix_timestamp

  1. 语法: unix_timestamp(string datestring pattern)
  2. 返回值: bigint
  3. 说明: 转换pattern格式的日期到UNIX时间戳。如果转化失败,则返回0
  4. hive>  select unix_timestamp('2021-03-08 14:21:15','yyyyMMdd HH:mm:ss'from tableName;
  5. 1615184475
    1. 日期时间转日期函数: to_date

  1. 语法: to_date(string timestamp)
  2. 返回值: string
  3. 说明: 返回日期时间字段中的日期部分。
  4. hive> select to_date('2021-03-28 14:03:01'from tableName;
  5. 2021-03-28
    1. 日期转年函数: year

  1. 语法: year(string date)
  2. 返回值: int
  3. 说明: 返回日期中的年。
  4. hive> select year('2021-03-28 10:03:01'from tableName;
  5. 2021
  6. hive> select year('2021-03-28'from tableName;
  7. 2021
    1. 日期转月函数: month

  1. 语法: month (string date)
  2. 返回值: int
  3. 说明: 返回日期中的月份。
  4. hive> select month('2020-12-28 12:03:01'from tableName;
  5. 12
  6. hive> select month('2021-03-08'from tableName;
  7. 8
    1. 日期转天函数: day

  1. 语法: day (string date)
  2. 返回值: int
  3. 说明: 返回日期中的天。
  4. hive> select day('2020-12-08 10:03:01'from tableName;
  5. 8
  6. hive> select day('2020-12-24'from tableName;
  7. 24
    1. 日期转小时函数: hour

  1. 语法: hour (string date)
  2. 返回值: int
  3. 说明: 返回日期中的小时。
  4. hive> select hour('2020-12-08 10:03:01'from tableName;
  5. 10
    1. 日期转分钟函数: minute

  1. 语法: minute (string date)
  2. 返回值: int
  3. 说明: 返回日期中的分钟。
  4. hive> select minute('2020-12-08 10:03:01'from tableName;
  5. 3
    1. 日期转秒函数: second

  1. 语法: second (string date)
  2. 返回值: int
  3. 说明: 返回日期中的秒。
  4. hive> select second('2020-12-08 10:03:01'from tableName;
  5. 1
    1. 日期转周函数: weekofyear

  1. 语法: weekofyear (string date)
  2. 返回值: int
  3. 说明: 返回日期在当前的周数。
  4. hive> select weekofyear('2020-12-08 10:03:01'from tableName;
  5. 49
    1. 日期比较函数: datediff

  1. 语法: datediff(string enddate, string startdate)
  2. 返回值: int
  3. 说明: 返回结束日期减去开始日期的天数。
  4. hive> select datediff('2020-12-08','2012-05-09'from tableName;
  5. 213
    1. 日期增加函数: date_add

  1. 语法: date_add(string startdate, int days)
  2. 返回值: string
  3. 说明: 返回开始日期startdate增加days天后的日期。
  4. hive> select date_add('2020-12-08',10from tableName;
  5. 2020-12-18
    1. 日期减少函数: date_sub

  1. 语法: date_sub (string startdate, int days)
  2. 返回值: string
  3. 说明: 返回开始日期startdate减少days天后的日期。
  4. hive> select date_sub('2020-12-08',10from tableName;
  5. 2020-11-28

字符串函数

    1. 字符串长度函数:length

  1. 语法: length(string A)
  2. 返回值: int
  3. 说明:返回字符串A的长度
  4. hive> select length('abcedfg'from tableName;
  5. 7
    1. 字符串反转函数:reverse

  1. 语法: reverse(string A)
  2. 返回值: string
  3. 说明:返回字符串A的反转结果
  4. hive> select reverse('abcedfg'from tableName;
  5. gfdecba
    1. 字符串连接函数:concat

  1. 语法: concat(string A, string B…)
  2. 返回值: string
  3. 说明:返回输入字符串连接后的结果,支持任意个输入字符串
  4. hive> select concat('abc','def’,'gh')from tableName;
  5. abcdefgh
    1. 带分隔符字符串连接函数:concat_ws

  1. 语法: concat_ws(string SEP, string A, string B…)
  2. 返回值: string
  3. 说明:返回输入字符串连接后的结果,SEP表示各个字符串间的分隔符
  4. hive> select concat_ws(',','abc','def','gh')from tableName;
  5. abc,def,gh
    1. 字符串截取函数:substr,substring

  1. 语法: substr(string A, int start),substring(string A, int start)
  2. 返回值: string
  3. 说明:返回字符串A从start位置到结尾的字符串
  4. hive> select substr('abcde',3from tableName;
  5. cde
  6. hive> select substring('abcde',3from tableName;
  7. cde
  8. hive> select substr('abcde',-1from tableName; (和ORACLE相同)
  9. e
    1. 字符串截取函数:substr,substring

  1. 语法: substr(string A, int start, int len),substring(string A, int start, int len)
  2. 返回值: string
  3. 说明:返回字符串A从start位置开始,长度为len的字符串
  4. hive> select substr('abcde',3,2from tableName;
  5. cd
  6. hive> select substring('abcde',3,2from tableName;
  7. cd
  8. hive>select substring('abcde',-2,2from tableName;
  9. de
    1. 字符串转大写函数:upper,ucase

  1. 语法: upper(string A) ucase(string A)
  2. 返回值: string
  3. 说明:返回字符串A的大写格式
  4. hive> select upper('abSEd'from tableName;
  5. ABSED
  6. hive> select ucase('abSEd'from tableName;
  7. ABSED
    1. 字符串转小写函数:lower,lcase

  1. 语法: lower(string A) lcase(string A)
  2. 返回值: string
  3. 说明:返回字符串A的小写格式
  4. hive> select lower('abSEd'from tableName;
  5. absed
  6. hive> select lcase('abSEd'from tableName;
  7. absed
    1. 去空格函数:trim

  1. 语法: trim(string A)
  2. 返回值: string
  3. 说明:去除字符串两边的空格
  4. hive> select trim(' abc 'from tableName;
  5. abc
    1. 左边去空格函数:ltrim

  1. 语法: ltrim(string A)
  2. 返回值: string
  3. 说明:去除字符串左边的空格
  4. hive> select ltrim(' abc 'from tableName;
  5. abc
    1. 右边去空格函数:rtrim

  1. 语法: rtrim(string A)
  2. 返回值: string
  3. 说明:去除字符串右边的空格
  4. hive> select rtrim(' abc 'from tableName;
  5. abc
    1. 正则表达式替换函数:regexp_replace

  1. 语法: regexp_replace(string A, string B, string C)
  2. 返回值: string
  3. 说明:将字符串A中的符合java正则表达式B的部分替换为C。注意,在有些情况下要使用转义字符,类似oracle中的regexp_replace函数。
  4. hive> select regexp_replace('foobar''oo|ar'''from tableName;
  5. fb
    1. 正则表达式解析函数:regexp_extract

  1. 语法: regexp_extract(string subject, string pattern, int index)
  2. 返回值: string
  3. 说明:将字符串subject按照pattern正则表达式的规则拆分,返回index指定的字符。
  4. hive> select regexp_extract('foothebar''foo(.*?)(bar)'1from tableName;
  5. the
  6. hive> select regexp_extract('foothebar''foo(.*?)(bar)'2from tableName;
  7. bar
  8. hive> select regexp_extract('foothebar''foo(.*?)(bar)'0from tableName;
  9. foothebar
  10. strong>注意,在有些情况下要使用转义字符,下面的等号要用双竖线转义,这是java正则表达式的规则。
  11. select data_field,
  12. regexp_extract(data_field,'.*?bgStart\\=([^&]+)',1as aaa,
  13. regexp_extract(data_field,'.*?contentLoaded_headStart\\=([^&]+)',1as bbb,
  14. regexp_extract(data_field,'.*?AppLoad2Req\\=([^&]+)',1as ccc 
  15. from pt_nginx_loginlog_st 
  16. where pt = '2021-03-28' limit 2;
    1. URL解析函数:parse_url

  1. 语法: parse_url(string urlString, string partToExtract [, string keyToExtract])
  2. 返回值: string
  3. 说明:返回URL中指定的部分。partToExtract的有效值为:HOST, PATH, QUERY, REF, PROTOCOL, AUTHORITY, FILEand USERINFO.
  4. hive> select parse_url
  5. ('https://www.tableName.com/path1/p.php?k1=v1&k2=v2#Ref1''HOST'
  6. from tableName;
  7. www.tableName.com 
  8. hive> select parse_url
  9. ('https://www.tableName.com/path1/p.php?k1=v1&k2=v2#Ref1''QUERY''k1')
  10.  from tableName;
  11. v1
    1. json解析函数:get_json_object

  1. 语法: get_json_object(string json_string, string path)
  2. 返回值: string
  3. 说明:解析json的字符串json_string,返回path指定的内容。如果输入的json字符串无效,那么返回NULL。
  4. hive> select  get_json_object('{"store":{"fruit":\[{"weight":8,"type":"apple"},{"weight":9,"type":"pear"}], "bicycle":{"price":19.95,"color":"red"} },"email":"amy@only_for_json_udf_test.net","owner":"amy"}','$.owner') from tableName;
    1. 空格字符串函数:space

  1. 语法: space(int n)
  2. 返回值: string
  3. 说明:返回长度为n的字符串
  4. hive> select space(10from tableName;
  5. hive> select length(space(10)) from tableName;
  6. 10
    1. 重复字符串函数:repeat

  1. 语法: repeat(string str, int n)
  2. 返回值: string
  3. 说明:返回重复n次后的str字符串
  4. hive> select repeat('abc',5from tableName;
  5. abcabcabcabcabc
    1. 首字符ascii函数:ascii

  1. 语法: ascii(string str)
  2. 返回值: int
  3. 说明:返回字符串str第一个字符的ascii
  4. hive> select ascii('abcde'from tableName;
  5. 97
    1. 左补足函数:lpad

  1. 语法: lpad(string str, int len, string pad)
  2. 返回值: string
  3. 说明:将str进行用pad进行左补足到len位
  4. hive> select lpad('abc',10,'td'from tableName;
  5. tdtdtdtabc
  6. 注意:与GP,ORACLE不同,pad 不能默认
    1. 右补足函数:rpad

  1. 语法: rpad(string str, int len, string pad)
  2. 返回值: string
  3. 说明:将str进行用pad进行右补足到len位
  4. hive> select rpad('abc',10,'td'from tableName;
  5. abctdtdtdt
    1. 分割字符串函数: split

  1. 语法: split(string str, string pat)
  2. 返回值: array
  3. 说明: 按照pat字符串分割str,会返回分割后的字符串数组
  4. hive> select split('abtcdtef','t'from tableName;
  5. ["ab","cd","ef"]
    1. 集合查找函数: find_in_set

  1. 语法: find_in_set(string str, string strList)
  2. 返回值: int
  3. 说明: 返回str在strlist第一次出现的位置,strlist是用逗号分割的字符串。如果没有找该str字符,则返回0
  4. hive> select find_in_set('ab','ef,ab,de'from tableName;
  5. 2
  6. hive> select find_in_set('at','ef,ab,de'from tableName;
  7. 0

复合类型构建操作

  • Map类型构建: map

  1. 语法: map (key1value1key2value2, …)
  2. 说明:根据输入的keyvalue对构建map类型
  3. hive> Create table mapTable as select map('100','tom','200','mary'as t from tableName;
  4. hive> describe mapTable;
  5. t       map<string ,string>
  6. hive> select t from tableName;
  7. {"100":"tom","200":"mary"}
    1. Struct类型构建: struct

  1. 语法: struct(val1, val2, val3, …)
  2. 说明:根据输入的参数构建结构体struct类型
  3. hive> create table struct_table as select struct('tom','mary','tim'as t from tableName;
  4. hive> describe struct_table;
  5. t       struct<col1:string ,col2:string,col3:string>
  6. hive> select t from tableName;
  7. {"col1":"tom","col2":"mary","col3":"tim"}
    1. array类型构建: array

  1. 语法: array(val1, val2, …)
  2. 说明:根据输入的参数构建数组array类型
  3. hive> create table arr_table as select array("tom","mary","tim"as t from tableName;
  4. hive> describe tableName;
  5. t       array<string>
  6. hive> select t from tableName;
  7. ["tom","mary","tim"]

复杂类型访问操作

    1. array类型访问: A[n]

  1. 语法: A[n]
  2. 操作类型: A为array类型,n为int类型
  3. 说明:返回数组A中的第n个变量值。数组的起始下标为0。比如,A是个值为['foo''bar']的数组类型,那么A[0]将返回'foo',而A[1]将返回'bar'
  4. hive> create table arr_table2 as select array("tom","mary","tim"as t
  5.  from tableName;
  6. hive> select t[0],t[1from arr_table2;
  7. tom     mary    tim
    1. map类型访问: M[key]

  1. 语法: M[key]
  2. 操作类型: M为map类型,key为map中的key
  3. 说明:返回map类型M中,key值为指定值的value值。比如,M是值为{'f' -> 'foo''b' -> 'bar''all' -> 'foobar'}的map类型,那么M['all']将会返回'foobar'
  4. hive> Create table map_table2 as select map('100','tom','200','mary'as t from tableName;
  5. hive> select t['200'],t['100'from map_table2;
  6. mary    tom
    1. struct类型访问: S.x

  1. 语法: S.x
  2. 操作类型: S为struct类型
  3. 说明:返回结构体S中的x字段。比如,对于结构体struct foobar {int foo, int bar},foobar.foo返回结构体中的foo字段
  4. hive> create table str_table2 as select struct('tom','mary','tim'as t from tableName;
  5. hive> describe tableName;
  6. t       struct<col1:string ,col2:string,col3:string>
  7. hive> select t.col1,t.col3 from str_table2;
  8. tom     tim

复杂类型长度统计函数

    1. Map类型长度函数: size(Map<k .V>)

  1. 语法: size(Map<k .V>)
  2. 返回值: int
  3. 说明: 返回map类型的长度
  4. hive> select size(t) from map_table2;
  5. 2
    1. array类型长度函数: size(Array)

  1. 语法: size(Array<T>)
  2. 返回值: int
  3. 说明: 返回array类型的长度
  4. hive> select size(t) from arr_table2;
  5. 4
    1. 类型转换函数 ***

  1. 类型转换函数: cast
  2. 语法: cast(expr as <type>)
  3. 返回值: Expected "=" to follow "type"
  4. 说明: 返回转换后的数据类型
  5. hive> select cast('1' as bigint) from tableName;
  6. 1

hive当中的lateral view 与 explode以及reflect和窗口函数

使用explode函数将hive表中的Map和Array字段数据进行拆分

​ lateral view用于和split、explode等UDTF一起使用的,能将一行数据拆分成多行数据,在此基础上可以对拆分的数据进行聚合,lateral view首先为原始表的每行调用UDTF,UDTF会把一行拆分成一行或者多行,lateral view在把结果组合,产生一个支持别名表的虚拟表。

​ 其中explode还可以用于将hive一列中复杂的array或者map结构拆分成多行

需求:现在有数据格式如下

  1. zhangsan child1,child2,child3,child4 k1:v1,k2:v2
  2. lisi child5,child6,child7,child8 k3:v3,k4:v4

​ 字段之间使用\t分割,需求将所有的child进行拆开成为一列

  1. +----------+--+
  2. | mychild  |
  3. +----------+--+
  4. | child1   |
  5. | child2   |
  6. | child3   |
  7. | child4   |
  8. | child5   |
  9. | child6   |
  10. | child7   |
  11. | child8   |
  12. +----------+--+

​ 将map的key和value也进行拆开,成为如下结果

  1. +-----------+-------------+--+
  2. | mymapkey  | mymapvalue  |
  3. +-----------+-------------+--+
  4. | k1        | v1          |
  5. | k2        | v2          |
  6. | k3        | v3          |
  7. | k4        | v4          |
  8. +-----------+-------------+--+
    1. 创建hive数据库

  1. 创建hive数据库
  2. hive (default)> create database hive_explode;
  3. hive (default)> use hive_explode;
    1. 创建hive表,然后使用explode拆分map和array

hive (hive_explode)> create  table t3(name string,children array<string>,address Map<string,string>) row format delimited fields terminated by '\t'  collection items terminated by ',' map keys terminated by ':' stored as textFile;
    1. 加载数据

  1. node03执行以下命令创建表数据文件
  2.  mkdir -p /export/servers/hivedatas/
  3.  cd /export/servers/hivedatas/
  4.  vim maparray
  5. 内容如下:
  6. zhangsan child1,child2,child3,child4 k1:v1,k2:v2
  7. lisi child5,child6,child7,child8 k3:v3,k4:v4
  8. hive表当中加载数据
  9. hive (hive_explode)> load data local inpath '/export/servers/hivedatas/maparray' into table t3;
    1. 使用explode将hive当中数据拆开

  1. 将array当中的数据拆分开
  2. hive (hive_explode)> SELECT explode(children) AS myChild FROM t3;
  3. 将map当中的数据拆分开
  4. hive (hive_explode)> SELECT explode(addressAS (myMapKey, myMapValue) FROM t3;

使用explode拆分json字符串

需求: 需求:现在有一些数据格式如下:

a:shandong,b:beijing,c:hebei|1,2,3,4,5,6,7,8,9|[{"source":"7fresh","monthSales":4900,"userCount":1900,"score":"9.9"},{"source":"jd","monthSales":2090,"userCount":78981,"score":"9.8"},{"source":"jdmart","monthSales":6987,"userCount":1600,"score":"9.0"}]

其中字段与字段之间的分隔符是 |

我们要解析得到所有的monthSales对应的值为以下这一列(行转列)

4900

2090

6987

    1. 创建hive表

  1. hive (hive_explode)> create table explode_lateral_view
  2.                    > (`areastring,
  3.                    > `goods_id` string,
  4.                    > `sale_info` string)
  5.                    > ROW FORMAT DELIMITED
  6.                    > FIELDS TERMINATED BY '|'
  7.                    > STORED AS textfile;
    1. 准备数据并加载数据

  1. 准备数据如下
  2. cd /export/servers/hivedatas
  3. vim explode_json
  4. a:shandong,b:beijing,c:hebei|1,2,3,4,5,6,7,8,9|[{"source":"7fresh","monthSales":4900,"userCount":1900,"score":"9.9"},{"source":"jd","monthSales":2090,"userCount":78981,"score":"9.8"},{"source":"jdmart","monthSales":6987,"userCount":1600,"score":"9.0"}]
  5. 加载数据到hive表当中去
  6. hive (hive_explode)> load data local inpath '/export/servers/hivedatas/explode_json' overwrite into table explode_lateral_view;
    1. 使用explode拆分Array

hive (hive_explode)> select explode(split(goods_id,',')) as goods_id from explode_lateral_view;
    1. 使用explode拆解Map

hive (hive_explode)> select explode(split(area,',')) as area from explode_lateral_view;
    1. 拆解json字段

  1. hive (hive_explode)> select explode(split(regexp_replace(regexp_replace(sale_info,'\\[\\{',''),'}]',''),'},\\{')) as  sale_info from explode_lateral_view;
  2. 然后我们想用get_json_object来获取key为monthSales的数据:
  3. hive (hive_explode)> select get_json_object(explode(split(regexp_replace(regexp_replace(sale_info,'\\[\\{',''),'}]',''),'},\\{')),'$.monthSales'as  sale_info from explode_lateral_view;
  4. 然后挂了FAILED: SemanticException [Error 10081]: UDTF's are not supported outside the SELECT clause, nor nested in expressions
  5. UDTF explode不能写在别的函数内
  6. 如果你这么写,想查两个字段,select explode(split(area,',')) as area,good_id from explode_lateral_view;
  7. 会报错FAILED: SemanticException 1:40 Only a single expression in the SELECT clause is supported with UDTF's. Error encountered near token 'good_id'
  8. 使用UDTF的时候,只支持一个字段,这时候就需要LATERAL VIEW出场了

配合LATERAL VIEW使用

​ 配合lateral view查询多个字段

  1. hive (hive_explode)> select goods_id2,sale_info from explode_lateral_view LATERAL VIEW explode(split(goods_id,','))goods as goods_id2;
  2. 其中LATERAL VIEW explode(split(goods_id,','))goods相当于一个虚拟表,与原表explode_lateral_view笛卡尔积关联

​ 也可以多重使用

  1. hive (hive_explode)> select goods_id2,sale_info,area2
  2.                     from explode_lateral_view 
  3.                     LATERAL VIEW explode(split(goods_id,','))goods as goods_id2 
  4.                     LATERAL VIEW explode(split(area,','))area as area2;也是三个表笛卡尔积的结果

最终,我们可以通过下面的句子,把这个json格式的一行数据,完全转换成二维表的方式展现

hive (hive_explode)> select get_json_object(concat('{',sale_info_1,'}'),'$.source'as source,get_json_object(concat('{',sale_info_1,'}'),'$.monthSales'as monthSales,get_json_object(concat('{',sale_info_1,'}'),'$.userCount'as monthSales,get_json_object(concat('{',sale_info_1,'}'),'$.score'as monthSales from explode_lateral_view LATERAL VIEW explode(split(regexp_replace(regexp_replace(sale_info,'\\[\\{',''),'}]',''),'},\\{'))sale_info as sale_info_1;

总结:

Lateral View通常和UDTF一起出现,为了解决UDTF不允许在select字段的问题。 Multiple Lateral View可以实现类似笛卡尔乘积。 Outer关键字可以把不输出的UDTF的空结果,输出成NULL,防止丢失数据。

行转列

相关参数说明:

​ CONCAT(string A/col, string B/col…):返回输入字符串连接后的结果,支持任意个输入字符串;

​ CONCAT_WS(separator, str1, str2,...):它是一个特殊形式的 CONCAT()。第一个参数剩余参数间的分隔符。分隔符可以是与剩余参数一样的字符串。如果分隔符是 NULL,返回值也将为 NULL。这个函数会跳过分隔符参数后的任何 NULL 和空字符串。分隔符将被加到被连接的字符串之间;

​ COLLECT_SET(col):函数只接受基本数据类型,它的主要作用是将某字段的值进行去重汇总,产生array类型字段。

数据准备:

nameconstellationblood_type
孙悟空白羊座A
老王射手座A
宋宋白羊座B
猪八戒白羊座A
凤姐射手座A

需求: 把星座和血型一样的人归类到一起。结果如下:

  1. 射手座,A            老王|凤姐
  2. 白羊座,A            孙悟空|猪八戒
  3. 白羊座,B            宋宋

实现步骤:

    1. 创建本地constellation.txt,导入数据

  1. node03服务器执行以下命令创建文件,注意数据使用\t进行分割
  2. cd /export/servers/hivedatas
  3. vim constellation.txt
  4. 数据如下: 
  5. 孙悟空 白羊座 A
  6. 老王 射手座 A
  7. 宋宋 白羊座 B       
  8. 猪八戒 白羊座 A
  9. 凤姐 射手座 A
    1. 创建hive表并导入数据

  1. 创建hive表并加载数据
  2. hive (hive_explode)> create table person_info(
  3.                     name string
  4.                     constellation string
  5.                     blood_type string
  6.                     row format delimited fields terminated by "\t";
  7.                     
  8. 加载数据
  9. hive (hive_explode)> load data local inpath '/export/servers/hivedatas/constellation.txt' into table person_info;
    1. 按需求查询数据

  1. hive (hive_explode)> select
  2.                         t1.base,
  3.                         concat_ws('|', collect_set(t1.name)) name
  4.                     from
  5.                         (select
  6.                             name,
  7.                             concat(constellation, "," , blood_type) base
  8.                         from
  9.                             person_info) t1
  10.                     group by
  11.                         t1.base;

列转行

所需函数:

​ EXPLODE(col):将hive一列中复杂的array或者map结构拆分成多行。

​ LATERAL VIEW

​ 用法:LATERAL VIEW udtf(expression) tableAlias AS columnAlias

​ 解释:用于和split, explode等UDTF一起使用,它能够将一列数据拆成多行数据,在此基础上可以对拆分后的数据进行聚合。

数据准备:

  1. cd /export/servers/hivedatas
  2. vim movie.txt
  3. 文件内容如下:  数据字段之间使用\t进行分割
  4. 《疑犯追踪》 悬疑,动作,科幻,剧情
  5. 《Lie to me》 悬疑,警匪,动作,心理,剧情
  6. 《战狼2》 战争,动作,灾难

需求: 将电影分类中的数组数据展开。结果如下:

  1. 《疑犯追踪》 悬疑
  2. 《疑犯追踪》 动作
  3. 《疑犯追踪》 科幻
  4. 《疑犯追踪》 剧情
  5. 《Lie to me》 悬疑
  6. 《Lie to me》 警匪
  7. 《Lie to me》 动作
  8. 《Lie to me》 心理
  9. 《Lie to me》 剧情
  10. 《战狼2》 战争
  11. 《战狼2》 动作
  12. 《战狼2》 灾难

实现步骤:

    1. 创建hive表

  1. create table movie_info(
  2.     movie string
  3.     category array<string>
  4. row format delimited fields terminated by "\t"
  5. collection items terminated by ",";
    1. 加载数据

load data local inpath "/export/servers/hivedatas/movie.txt" into table movie_info;
    1. 按需求查询数据

  1. select
  2.     movie,
  3.     category_name
  4. from 
  5.     movie_info lateral view explode(category) table_tmp as category_name;

reflect函数

​ reflect函数可以支持在sql中调用java中的自带函数,秒杀一切udf函数。

需求1: 使用java.lang.Math当中的Max求两列中最大值

实现步骤:

    1. 创建hive表

create table test_udf(col1 int,col2 int) row format delimited fields terminated by ',';
    1. 准备数据并加载数据

  1. cd /export/servers/hivedatas
  2. vim test_udf 
  3. 文件内容如下:
  4. 1,2
  5. 4,3
  6. 6,4
  7. 7,5
  8. 5,6
    1. 加载数据

hive (hive_explode)> load data local inpath '/export/servers/hivedatas/test_udf' overwrite into table test_udf;
    1. 使用java.lang.Math当中的Max求两列当中的最大值

hive (hive_explode)> select reflect("java.lang.Math","max",col1,col2from test_udf;

需求2: 文件中不同的记录来执行不同的java的内置函数

实现步骤:

    1. 创建hive表

hive (hive_explode)> create table test_udf2(class_name string,method_name string,col1 int , col2 int) row format delimited fields terminated by ',';
    1. 准备数据

  1. cd /export/servers/hivedatas
  2. vim test_udf2
  3. 文件内容如下:
  4. java.lang.Math,min,1,2
  5. java.lang.Math,max,2,3
    1. 加载数据

hive (hive_explode)> load data local inpath '/export/servers/hivedatas/test_udf2' overwrite into table test_udf2;
    1. 执行查询

hive (hive_explode)> select reflect(class_name,method_name,col1,col2from test_udf2;

需求3: 判断是否为数字

实现方式:

​ 使用apache commons中的函数,commons下的jar已经包含在hadoop的classpath中,所以可以直接使用。

  1. select reflect("org.apache.commons.lang.math.NumberUtils","isNumber","123")

窗口函数与分析函数

在sql中有一类函数叫做聚合函数,例如sum()、avg()、max()等等,这类函数可以将多行数据按照规则聚集为一行,一般来讲聚集后的行数是要少于聚集前的行数的。但是有时我们想要既显示聚集前的数据,又要显示聚集后的数据,这时我们便引入了窗口函数。窗口函数又叫OLAP函数/分析函数,窗口函数兼具分组和排序功能。

窗口函数最重要的关键字是 partition byorder by。

具体语法如下:over (partition by xxx order by xxx)

sum、avg、min、max

准备数据

  1. 建表语句:
  2. create table test_t1(
  3. cookieid string,
  4. createtime string,   --day 
  5. pv int
  6. ) row format delimited 
  7. fields terminated by ',';
  8. 加载数据:
  9. load data local inpath '/root/hivedata/test_t1.dat' into table test_t1;
  10. cookie1,2020-04-10,1
  11. cookie1,2020-04-11,5
  12. cookie1,2020-04-12,7
  13. cookie1,2020-04-13,3
  14. cookie1,2020-04-14,2
  15. cookie1,2020-04-15,4
  16. cookie1,2020-04-16,4
  17. 开启智能本地模式
  18. SET hive.exec.mode.local.auto=true;

SUM函数和窗口函数的配合使用:结果和ORDER BY相关,默认为升序。

  1. select cookieid,createtime,pv,
  2. sum(pv) over(partition by cookieid order by createtime) as pv1 
  3. from test_t1;
  4. select cookieid,createtime,pv,
  5. sum(pv) over(partition by cookieid order by createtime rows between unbounded preceding and current row) as pv2
  6. from test_t1;
  7. select cookieid,createtime,pv,
  8. sum(pv) over(partition by cookieid) as pv3
  9. from test_t1;
  10. select cookieid,createtime,pv,
  11. sum(pv) over(partition by cookieid order by createtime rows between 3 preceding and current row) as pv4
  12. from test_t1;
  13. select cookieid,createtime,pv,
  14. sum(pv) over(partition by cookieid order by createtime rows between 3 preceding and 1 following) as pv5
  15. from test_t1;
  16. select cookieid,createtime,pv,
  17. sum(pv) over(partition by cookieid order by createtime rows between current row and unbounded following) as pv6
  18. from test_t1;
  19. pv1: 分组内从起点到当前行的pv累积,如,11号的pv1=10号的pv+11号的pv, 12=10+11+12
  20. pv2: 同pv1
  21. pv3: 分组内(cookie1)所有的pv累加
  22. pv4: 分组内当前行+往前3行,如,11=10+11号, 12=10+11+12号,
  23.                         13=10+11+12+13号, 14=11+12+13+14
  24. pv5: 分组内当前行+往前3+往后1行,如,14=11+12+13+14+15=5+7+3+2+4=21
  25. pv6: 分组内当前行+往后所有行,如,13=13+14+15+16=3+2+4+4=13
  26.         14=14+15+16=2+4+4=10

​ 如果不指定rows between,默认为从起点到当前行;

​ 如果不指定order by,则将分组内所有值累加;

​ 关键是理解rows between含义,也叫做window子句:

​ preceding:往前

​ following:往后

​ current row:当前行

​ unbounded:起点

​ unbounded preceding 表示从前面的起点

​ unbounded following:表示到后面的终点

​ AVG,MIN,MAX,和SUM用法一样。

row_number、rank、dense_rank、ntile

准备数据

  1. cookie1,2020-04-10,1
  2. cookie1,2020-04-11,5
  3. cookie1,2020-04-12,7
  4. cookie1,2020-04-13,3
  5. cookie1,2020-04-14,2
  6. cookie1,2020-04-15,4
  7. cookie1,2020-04-16,4
  8. cookie2,2020-04-10,2
  9. cookie2,2020-04-11,3
  10. cookie2,2020-04-12,5
  11. cookie2,2020-04-13,6
  12. cookie2,2020-04-14,3
  13. cookie2,2020-04-15,9
  14. cookie2,2020-04-16,7
  15.  
  16. CREATE TABLE test_t2 (
  17. cookieid string,
  18. createtime string,   --day 
  19. pv INT
  20. ) ROW FORMAT DELIMITED 
  21. FIELDS TERMINATED BY ',' 
  22. stored as textfile;
  23.   
  24. 加载数据:
  25. load data local inpath '/root/hivedata/test_t2.dat' into table test_t2;
  • ROW_NUMBER()使用

    ROW_NUMBER()从1开始,按照顺序,生成分组内记录的序列。

  1. SELECT 
  2. cookieid,
  3. createtime,
  4. pv,
  5. ROW_NUMBER() OVER(PARTITION BY cookieid ORDER BY pv desc) AS rn 
  6. FROM test_t2;
  • RANK 和 DENSE_RANK使用

    RANK() 生成数据项在分组中的排名,排名相等会在名次中留下空位 。

    DENSE_RANK()生成数据项在分组中的排名,排名相等会在名次中不会留下空位。

  1. SELECT 
  2. cookieid,
  3. createtime,
  4. pv,
  5. RANK() OVER(PARTITION BY cookieid ORDER BY pv desc) AS rn1,
  6. DENSE_RANK() OVER(PARTITION BY cookieid ORDER BY pv desc) AS rn2,
  7. ROW_NUMBER() OVER(PARTITION BY cookieid ORDER BY pv DESC) AS rn3 
  8. FROM test_t2 
  9. WHERE cookieid = 'cookie1';
  • NTILE

    有时会有这样的需求:如果数据排序后分为三部分,业务人员只关心其中的一部分,如何将这中间的三分之一数据拿出来呢?NTILE函数即可以满足。

    ntile可以看成是:把有序的数据集合平均分配到指定的数量(num)个桶中, 将桶号分配给每一行。如果不能平均分配,则优先分配较小编号的桶,并且各个桶中能放的行数最多相差1。

    然后可以根据桶号,选取前或后 n分之几的数据。数据会完整展示出来,只是给相应的数据打标签;具体要取几分之几的数据,需要再嵌套一层根据标签取出。

  1. SELECT 
  2. cookieid,
  3. createtime,
  4. pv,
  5. NTILE(2) OVER(PARTITION BY cookieid ORDER BY createtime) AS rn1,
  6. NTILE(3) OVER(PARTITION BY cookieid ORDER BY createtime) AS rn2,
  7. NTILE(4) OVER(ORDER BY createtime) AS rn3
  8. FROM test_t2 
  9. ORDER BY cookieid,createtime;

其他一些窗口函数

lag,lead,first_value,last_value

  • LAG
    LAG(col,n,DEFAULT) 用于统计窗口内往上第n行值第一个参数为列名,第二个参数为往上第n行(可选,默认为1),第三个参数为默认值(当往上第n行为NULL时候,取默认值,如不指定,则为NULL)

  1. SELECT cookieid,
  2. createtime,
  3. url,
  4. ROW_NUMBER() OVER(PARTITION BY cookieid ORDER BY createtime) AS rn,
  5. LAG(createtime,1,'1970-01-01 00:00:00') OVER(PARTITION BY cookieid ORDER BY createtime) AS last_1_time,
  6. LAG(createtime,2) OVER(PARTITION BY cookieid ORDER BY createtime) AS last_2_time 
  7. FROM test_t4;
  8. last_1_time: 指定了往上第1行的值,default'1970-01-01 00:00:00'  
  9.                  cookie1第一行,往上1行为NULL,因此取默认值 1970-01-01 00:00:00
  10.                  cookie1第三行,往上1行值为第二行值,2015-04-10 10:00:02
  11.                  cookie1第六行,往上1行值为第五行值,2015-04-10 10:50:01
  12. last_2_time: 指定了往上第2行的值,为指定默认值
  13.          cookie1第一行,往上2行为NULL
  14.          cookie1第二行,往上2行为NULL
  15.          cookie1第四行,往上2行为第二行值,2015-04-10 10:00:02
  16.          cookie1第七行,往上2行为第五行值,2015-04-10 10:50:01
  • LEAD

与LAG相反 LEAD(col,n,DEFAULT) 用于统计窗口内往下第n行值 第一个参数为列名,第二个参数为往下第n行(可选,默认为1),第三个参数为默认值(当往下第n行为NULL时候,取默认值,如不指定,则为NULL)

  1. SELECT cookieid,
  2. createtime,
  3. url,
  4. ROW_NUMBER() OVER(PARTITION BY cookieid ORDER BY createtime) AS rn,
  5. LEAD(createtime,1,'1970-01-01 00:00:00') OVER(PARTITION BY cookieid ORDER BY createtime) AS next_1_time,
  6. LEAD(createtime,2) OVER(PARTITION BY cookieid ORDER BY createtime) AS next_2_time 
  7. FROM test_t4;
  • FIRST_VALUE

    取分组内排序后,截止到当前行,第一个值

  1.  SELECT cookieid,
  2.  createtime,
  3.  url,
  4.  ROW_NUMBER() OVER(PARTITION BY cookieid ORDER BY createtime) AS rn,
  5.  FIRST_VALUE(url) OVER(PARTITION BY cookieid ORDER BY createtime) AS first1 
  6.  FROM test_t4;
  • LAST_VALUE

取分组内排序后,截止到当前行,最后一个值

  1. SELECT cookieid,
  2. createtime,
  3. url,
  4. ROW_NUMBER() OVER(PARTITION BY cookieid ORDER BY createtime) AS rn,
  5. LAST_VALUE(url) OVER(PARTITION BY cookieid ORDER BY createtime) AS last1 
  6. FROM test_t4;

如果想要取分组内排序后最后一个值,则需要变通一下:

  1. SELECT cookieid,
  2. createtime,
  3. url,
  4. ROW_NUMBER() OVER(PARTITION BY cookieid ORDER BY createtime) AS rn,
  5. LAST_VALUE(url) OVER(PARTITION BY cookieid ORDER BY createtime) AS last1,
  6. FIRST_VALUE(url) OVER(PARTITION BY cookieid ORDER BY createtime DESC) AS last2 
  7. FROM test_t4 
  8. ORDER BY cookieid,createtime;

特别注意order by

如果不指定ORDER BY,则进行排序混乱,会出现错误的结果

  1. SELECT cookieid,
  2. createtime,
  3. url,
  4. FIRST_VALUE(url) OVER(PARTITION BY cookieid) AS first2  
  5. FROM test_t4;

cume_dist,percent_rank

这两个序列分析函数不是很常用,注意: 序列函数不支持WINDOW子句

  • 数据准备

  1. d1,user1,1000
  2. d1,user2,2000
  3. d1,user3,3000
  4. d2,user4,4000
  5. d2,user5,5000
  6.  
  7. CREATE EXTERNAL TABLE test_t3 (
  8. dept STRING,
  9. userid string,
  10. sal INT
  11. ) ROW FORMAT DELIMITED 
  12. FIELDS TERMINATED BY ',' 
  13. stored as textfile;
  14. 加载数据:
  15. load data local inpath '/root/hivedata/test_t3.dat' into table test_t3;

  • CUME_DIST 和order byd的排序顺序有关系

    CUME_DIST 小于等于当前值的行数/分组内总行数 order 默认顺序 正序 升序 比如,统计小于等于当前薪水的人数,所占总人数的比例

  1.  SELECT 
  2.  dept,
  3.  userid,
  4.  sal,
  5.  CUME_DIST() OVER(ORDER BY sal) AS rn1,
  6.  CUME_DIST() OVER(PARTITION BY dept ORDER BY sal) AS rn2 
  7.  FROM test_t3;
  8.  
  9.  rn1: 没有partition,所有数据均为1组,总行数为5
  10.       第一行:小于等于1000的行数为1,因此,1/5=0.2
  11.       第三行:小于等于3000的行数为3,因此,3/5=0.6
  12.  rn2: 按照部门分组,dpet=d1的行数为3,
  13.       第二行:小于等于2000的行数为2,因此,2/3=0.6666666666666666
  • PERCENT_RANK

    PERCENT_RANK 分组内当前行的RANK值-1/分组内总行数-1

    经调研 该函数显示现实意义不明朗 有待于继续考证

  1.   SELECT 
  2.   dept,
  3.   userid,
  4.   sal,
  5.   PERCENT_RANK() OVER(ORDER BY sal) AS rn1,   --分组内
  6.   RANK() OVER(ORDER BY sal) AS rn11,          --分组内RANK值
  7.   SUM(1) OVER(PARTITION BY NULLAS rn12,     --分组内总行数
  8.   PERCENT_RANK() OVER(PARTITION BY dept ORDER BY sal) AS rn2 
  9.   FROM test_t3;
  10.   
  11.   rn1: rn1 = (rn11-1/ (rn12-1
  12.       第一行,(1-1)/(5-1)=0/4=0
  13.       第二行,(2-1)/(5-1)=1/4=0.25
  14.       第四行,(4-1)/(5-1)=3/4=0.75
  15.   rn2: 按照dept分组,
  16.        dept=d1的总行数为3
  17.        第一行,(1-1)/(3-1)=0
  18.        第三行,(3-1)/(3-1)=1

grouping sets,grouping__id,cube,rollup

​ 这几个分析函数通常用于OLAP中,不能累加,而且需要根据不同维度上钻和下钻的指标统计,比如,分小时、天、月的UV数。

  • 数据准备

  1. 2020-03,2020-03-10,cookie1
  2. 2020-03,2020-03-10,cookie5
  3. 2020-03,2020-03-12,cookie7
  4. 2020-04,2020-04-12,cookie3
  5. 2020-04,2020-04-13,cookie2
  6. 2020-04,2020-04-13,cookie4
  7. 2020-04,2020-04-16,cookie4
  8. 2020-03,2020-03-10,cookie2
  9. 2020-03,2020-03-10,cookie3
  10. 2020-04,2020-04-12,cookie5
  11. 2020-04,2020-04-13,cookie6
  12. 2020-04,2020-04-15,cookie3
  13. 2020-04,2020-04-15,cookie2
  14. 2020-04,2020-04-16,cookie1
  15.  
  16. CREATE TABLE test_t5 (
  17. month STRING,
  18. day STRING
  19. cookieid STRING 
  20. ) ROW FORMAT DELIMITED 
  21. FIELDS TERMINATED BY ',' 
  22. stored as textfile;
  23. 加载数据:
  24. load data local inpath '/root/hivedata/test_t5.dat' into table test_t5;

  • GROUPING SETS

grouping sets是一种将多个group by 逻辑写在一个sql语句中的便利写法。

等价于将不同维度的GROUP BY结果集进行UNION ALL。

GROUPING__ID,表示结果属于哪一个分组集合。

  1. SELECT 
  2. month,
  3. day,
  4. COUNT(DISTINCT cookieid) AS uv,
  5. GROUPING__ID 
  6. FROM test_t5 
  7. GROUP BY month,day 
  8. GROUPING SETS (month,day
  9. ORDER BY GROUPING__ID;
  10. grouping_id表示这一组结果属于哪个分组集合,
  11. 根据grouping sets中的分组条件month,day1是代表month,2是代表day
  12. 等价于 
  13. SELECT month,NULL,COUNT(DISTINCT cookieid) AS uv,1 AS GROUPING__ID FROM test_t5 GROUP BY month UNION ALL 
  14. SELECT NULL as month,day,COUNT(DISTINCT cookieid) AS uv,2 AS GROUPING__ID FROM test_t5 GROUP BY day;

再如:

  1. SELECT 
  2. month,
  3. day,
  4. COUNT(DISTINCT cookieid) AS uv,
  5. GROUPING__ID 
  6. FROM test_t5 
  7. GROUP BY month,day 
  8. GROUPING SETS (month,day,(month,day)) 
  9. ORDER BY GROUPING__ID;
  10. 等价于
  11. SELECT month,NULL,COUNT(DISTINCT cookieid) AS uv,1 AS GROUPING__ID FROM test_t5 GROUP BY month 
  12. UNION ALL 
  13. SELECT NULL,day,COUNT(DISTINCT cookieid) AS uv,2 AS GROUPING__ID FROM test_t5 GROUP BY day
  14. UNION ALL 
  15. SELECT month,day,COUNT(DISTINCT cookieid) AS uv,3 AS GROUPING__ID FROM test_t5 GROUP BY month,day;
  • CUBE

根据GROUP BY的维度的所有组合进行聚合。

  1. SELECT 
  2. month,
  3. day,
  4. COUNT(DISTINCT cookieid) AS uv,
  5. GROUPING__ID 
  6. FROM test_t5 
  7. GROUP BY month,day 
  8. WITH CUBE 
  9. ORDER BY GROUPING__ID;
  10. 等价于
  11. SELECT NULL,NULL,COUNT(DISTINCT cookieid) AS uv,0 AS GROUPING__ID FROM test_t5
  12. UNION ALL 
  13. SELECT month,NULL,COUNT(DISTINCT cookieid) AS uv,1 AS GROUPING__ID FROM test_t5 GROUP BY month 
  14. UNION ALL 
  15. SELECT NULL,day,COUNT(DISTINCT cookieid) AS uv,2 AS GROUPING__ID FROM test_t5 GROUP BY day
  16. UNION ALL 
  17. SELECT month,day,COUNT(DISTINCT cookieid) AS uv,3 AS GROUPING__ID FROM test_t5 GROUP BY month,day;
  • ROLLUP

是CUBE的子集,以最左侧的维度为主,从该维度进行层级聚合。

  1. 比如,以month维度进行层级聚合:
  2. SELECT 
  3. month,
  4. day,
  5. COUNT(DISTINCT cookieid) AS uv,
  6. GROUPING__ID  
  7. FROM test_t5 
  8. GROUP BY month,day
  9. WITH ROLLUP 
  10. ORDER BY GROUPING__ID;
  11. --把month和day调换顺序,则以day维度进行层级聚合:
  12.  
  13. SELECT 
  14. day,
  15. month,
  16. COUNT(DISTINCT cookieid) AS uv,
  17. GROUPING__ID  
  18. FROM test_t5 
  19. GROUP BY day,month 
  20. WITH ROLLUP 
  21. ORDER BY GROUPING__ID;
  22. (这里,根据天和月进行聚合,和根据天聚合结果一样,因为有父子关系,如果是其他维度组合的话,就会不一样)

七、Hive执行计划

Hive SQL的执行计划描述SQL实际执行的整体轮廓,通过执行计划能了解SQL程序在转换成相应计算引擎的执行逻辑,掌握了执行逻辑也就能更好地把握程序出现的瓶颈点,从而能够实现更有针对性的优化。此外还能帮助开发者识别看似等价的SQL其实是不等价的,看似不等价的SQL其实是等价的SQL。可以说执行计划是打开SQL优化大门的一把钥匙

要想学SQL执行计划,就需要学习查看执行计划的命令:explain,在查询语句的SQL前面加上关键字explain是查看执行计划的基本方法。

学会explain,能够给我们工作中使用hive带来极大的便利!

查看SQL的执行计划

Hive提供的执行计划目前可以查看的信息有以下几种:

  • explain:查看执行计划的基本信息;

  • explain dependency:dependency在explain语句中使用会产生有关计划中输入的额外信息。它显示了输入的各种属性;

  • explain authorization:查看SQL操作相关权限的信息;

  • explain vectorization:查看SQL的向量化描述信息,显示为什么未对Map和Reduce进行矢量化。从 Hive 2.3.0 开始支持;

  • explain analyze:用实际的行数注释计划。从 Hive 2.2.0 开始支持;

  • explain cbo:输出由Calcite优化器生成的计划。CBO 从 Hive 4.0.0 版本开始支持;

  • explain locks:这对于了解系统将获得哪些锁以运行指定的查询很有用。LOCKS 从 Hive 3.2.0 开始支持;

  • explain ast:输出查询的抽象语法树。AST 在 Hive 2.1.0 版本删除了,存在bug,转储AST可能会导致OOM错误,将在4.0.0版本修复;

  • explain extended:加上 extended 可以输出有关计划的额外信息。这通常是物理信息,例如文件名,这些额外信息对我们用处不大;

1. explain 的用法

Hive提供了explain命令来展示一个查询的执行计划,这个执行计划对于我们了解底层原理,Hive 调优,排查数据倾斜等很有帮助。

使用语法如下:

explain query;

在 hive cli 中输入以下命令(hive 2.3.7):

explain select sum(id) from test1;

得到结果:

  1. STAGE DEPENDENCIES:
  2.   Stage-1 is a root stage
  3.   Stage-0 depends on stages: Stage-1
  4. STAGE PLANS:
  5.   Stage: Stage-1
  6.     Map Reduce
  7.       Map Operator Tree:
  8.           TableScan
  9.             alias: test1
  10.             Statistics: Num rows: 6 Data size75 Basic stats: COMPLETE Column stats: NONE
  11.             Select Operator
  12.               expressions: id (type: int)
  13.               outputColumnNames: id
  14.               Statistics: Num rows: 6 Data size75 Basic stats: COMPLETE Column stats: NONE
  15.               Group By Operator
  16.                 aggregations: sum(id)
  17.                 mode: hash
  18.                 outputColumnNames: _col0
  19.                 Statistics: Num rows: 1 Data size8 Basic stats: COMPLETE Column stats: NONE
  20.                 Reduce Output Operator
  21.                   sort order:
  22.                   Statistics: Num rows: 1 Data size8 Basic stats: COMPLETE Column stats: NONE
  23.                   value expressions: _col0 (type: bigint)
  24.       Reduce Operator Tree:
  25.         Group By Operator
  26.           aggregations: sum(VALUE._col0)
  27.           mode: mergepartial
  28.           outputColumnNames: _col0
  29.           Statistics: Num rows: 1 Data size8 Basic stats: COMPLETE Column stats: NONE
  30.           File Output Operator
  31.             compressed: false
  32.             Statistics: Num rows: 1 Data size8 Basic stats: COMPLETE Column stats: NONE
  33.             table:
  34.                 input format: org.apache.hadoop.mapred.SequenceFileInputFormat
  35.                 output format: org.apache.hadoop.hive.ql.io.HiveSequenceFileOutputFormat
  36.                 serde: org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe
  37.   Stage: Stage-0
  38.     Fetch Operator
  39.       limit: -1
  40.       Processor Tree:
  41.         ListSink

看完以上内容有什么感受,是不是感觉都看不懂,不要着急,下面将会详细讲解每个参数,相信你学完下面的内容之后再看 explain 的查询结果将游刃有余。

一个HIVE查询被转换为一个由一个或多个stage组成的序列(有向无环图DAG)。这些stage可以是MapReduce stage,也可以是负责元数据存储的stage,也可以是负责文件系统的操作(比如移动和重命名)的stage

我们将上述结果拆分看,先从最外层开始,包含两个大的部分:

  1. stage dependencies: 各个stage之间的依赖性

  2. stage plan: 各个stage的执行计划

先看第一部分 stage dependencies ,包含两个 stage,Stage-1 是根stage,说明这是开始的stage,Stage-0 依赖 Stage-1,Stage-1执行完成后执行Stage-0。

再看第二部分 stage plan,里面有一个 Map Reduce,一个MR的执行计划分为两个部分:

  1. Map Operator Tree: MAP端的执行计划树

  2. Reduce Operator Tree: Reduce端的执行计划树

这两个执行计划树里面包含这条sql语句的 operator:

  1. TableScan:表扫描操作,map端第一个操作肯定是加载表,所以就是表扫描操作,常见的属性:
    • alias: 表名称

    • Statistics: 表统计信息,包含表中数据条数,数据大小等

  2. Select Operator: 选取操作,常见的属性 :
    • expressions:需要的字段名称及字段类型

    • outputColumnNames:输出的列名称

    • Statistics:表统计信息,包含表中数据条数,数据大小等

  3. Group By Operator:分组聚合操作,常见的属性:
    • aggregations:显示聚合函数信息

    • mode:聚合模式,值有 hash:随机聚合,就是hash partition;partial:局部聚合;final:最终聚合

    • keys:分组的字段,如果没有分组,则没有此字段

    • outputColumnNames:聚合之后输出列名

    • Statistics: 表统计信息,包含分组聚合之后的数据条数,数据大小等

  4. Reduce Output Operator:输出到reduce操作,常见属性:
    • sort order:值为空 不排序;值为 + 正序排序,值为 - 倒序排序;值为 +- 排序的列为两列,第一列为正序,第二列为倒序

  5. Filter Operator:过滤操作,常见的属性:
    • predicate:过滤条件,如sql语句中的where id>=1,则此处显示(id >= 1)

  6. Map Join Operator:join 操作,常见的属性:
    • condition map:join方式 ,如Inner Join 0 to 1 Left Outer Join0 to 2

    • keys: join 的条件字段

    • outputColumnNames: join 完成之后输出的字段

    • Statistics: join 完成之后生成的数据条数,大小等

  7. File Output Operator:文件输出操作,常见的属性
    • compressed:是否压缩

    • table:表的信息,包含输入输出文件格式化方式,序列化方式等

  8. Fetch Operator 客户端获取数据操作,常见的属性:
    • limit,值为 -1 表示不限制条数,其他值为限制的条数

2. explain 的使用场景

本节介绍 explain 能够为我们在生产实践中带来哪些便利及解决我们哪些迷惑

案例一:join 语句会过滤 null 的值吗?

现在,我们在hive cli 输入以下查询计划语句

select a.id,b.user_name from test1 a join test2 b on a.id=b.id;

问:上面这条 join 语句会过滤 id 为 null 的值吗

执行下面语句:

explain select a.id,b.user_name from test1 a join test2 b on a.id=b.id;

我们来看结果 (为了适应页面展示,仅截取了部分输出信息):

  1. TableScan
  2.  alias: a
  3.  Statistics: Num rows: 6 Data size75 Basic stats: COMPLETE Column stats: NONE
  4.  Filter Operator
  5.     predicate: id is not null (typeboolean)
  6.     Statistics: Num rows: 6 Data size75 Basic stats: COMPLETE Column stats: NONE
  7.     Select Operator
  8.         expressions: id (type: int)
  9.         outputColumnNames: _col0
  10.         Statistics: Num rows: 6 Data size75 Basic stats: COMPLETE Column stats: NONE
  11.         HashTable Sink Operator
  12.            keys:
  13.              0 _col0 (type: int)
  14.              1 _col0 (type: int)
  15.  ...

从上述结果可以看到 predicate: id is not null 这样一行,说明 join 时会自动过滤掉关联字段为 null 值的情况,但 left join 或 full join 是不会自动过滤null值的,大家可以自行尝试下。

案例二:group by 分组语句会进行排序吗?

看下面这条sql

select id,max(user_name) from test1 group by id;

问:group by 分组语句会进行排序吗

直接来看 explain 之后结果 (为了适应页面展示,仅截取了部分输出信息)

  1.  TableScan
  2.     alias: test1
  3.     Statistics: Num rows: 9 Data size108 Basic stats: COMPLETE Column stats: NONE
  4.     Select Operator
  5.         expressions: id (type: int), user_name (typestring)
  6.         outputColumnNames: id, user_name
  7.         Statistics: Num rows: 9 Data size108 Basic stats: COMPLETE Column stats: NONE
  8.         Group By Operator
  9.            aggregations: max(user_name)
  10.            keys: id (type: int)
  11.            mode: hash
  12.            outputColumnNames: _col0, _col1
  13.            Statistics: Num rows: 9 Data size108 Basic stats: COMPLETE Column stats: NONE
  14.            Reduce Output Operator
  15.              key expressions: _col0 (type: int)
  16.              sort order+
  17.              Map-reduce partition columns: _col0 (type: int)
  18.              Statistics: Num rows: 9 Data size108 Basic stats: COMPLETE Column stats: NONE
  19.              value expressions: _col1 (typestring)
  20.  ...

我们看 Group By Operator,里面有 keys: id (type: int) 说明按照 id 进行分组的,再往下看还有 sort order: + ,说明是按照 id 字段进行正序排序的

案例三:哪条sql执行效率高呢?

观察两条sql语句

  1. SELECT
  2.  a.id,
  3.  b.user_name
  4. FROM
  5.  test1 a
  6. JOIN test2 b ON a.id = b.id
  7. WHERE
  8.  a.id > 2;
  1. SELECT
  2.  a.id,
  3.  b.user_name
  4. FROM
  5.  (SELECT * FROM test1 WHERE id > 2) a
  6. JOIN test2 b ON a.id = b.id;

这两条sql语句输出的结果是一样的,但是哪条sql执行效率高呢

有人说第一条sql执行效率高,因为第二条sql有子查询,子查询会影响性能;

有人说第二条sql执行效率高,因为先过滤之后,在进行join时的条数减少了,所以执行效率就高了。

到底哪条sql效率高呢,我们直接在sql语句前面加上 explain,看下执行计划不就知道了嘛!

在第一条sql语句前加上 explain,得到如下结果

  1. hive (default)> explain select a.id,b.user_name from test1 a join test2 b on a.id=b.id where a.id >2;
  2. OK
  3. Explain
  4. STAGE DEPENDENCIES:
  5.   Stage-4 is a root stage
  6.   Stage-3 depends on stages: Stage-4
  7.   Stage-0 depends on stages: Stage-3
  8. STAGE PLANS:
  9.   Stage: Stage-4
  10.     Map Reduce Local Work
  11.       Alias -> Map Local Tables:
  12.         $hdt$_0:a
  13.           Fetch Operator
  14.             limit: -1
  15.       Alias -> Map Local Operator Tree:
  16.         $hdt$_0:a
  17.           TableScan
  18.             alias: a
  19.             Statistics: Num rows: 6 Data size75 Basic stats: COMPLETE Column stats: NONE
  20.             Filter Operator
  21.               predicate: (id > 2) (typeboolean)
  22.               Statistics: Num rows: 2 Data size25 Basic stats: COMPLETE Column stats: NONE
  23.               Select Operator
  24.                 expressions: id (type: int)
  25.                 outputColumnNames: _col0
  26.                 Statistics: Num rows: 2 Data size25 Basic stats: COMPLETE Column stats: NONE
  27.                 HashTable Sink Operator
  28.                   keys:
  29.                     0 _col0 (type: int)
  30.                     1 _col0 (type: int)
  31.   Stage: Stage-3
  32.     Map Reduce
  33.       Map Operator Tree:
  34.           TableScan
  35.             alias: b
  36.             Statistics: Num rows: 6 Data size75 Basic stats: COMPLETE Column stats: NONE
  37.             Filter Operator
  38.               predicate: (id > 2) (typeboolean)
  39.               Statistics: Num rows: 2 Data size25 Basic stats: COMPLETE Column stats: NONE
  40.               Select Operator
  41.                 expressions: id (type: int), user_name (typestring)
  42.                 outputColumnNames: _col0, _col1
  43.                 Statistics: Num rows: 2 Data size25 Basic stats: COMPLETE Column stats: NONE
  44.                 Map Join Operator
  45.                   condition map:
  46.                        Inner Join 0 to 1
  47.                   keys:
  48.                     0 _col0 (type: int)
  49.                     1 _col0 (type: int)
  50.                   outputColumnNames: _col0, _col2
  51.                   Statistics: Num rows: 2 Data size27 Basic stats: COMPLETE Column stats: NONE
  52.                   Select Operator
  53.                     expressions: _col0 (type: int), _col2 (typestring)
  54.                     outputColumnNames: _col0, _col1
  55.                     Statistics: Num rows: 2 Data size27 Basic stats: COMPLETE Column stats: NONE
  56.                     File Output Operator
  57.                       compressed: false
  58.                       Statistics: Num rows: 2 Data size27 Basic stats: COMPLETE Column stats: NONE
  59.                       table:
  60.                           input format: org.apache.hadoop.mapred.SequenceFileInputFormat
  61.                           output format: org.apache.hadoop.hive.ql.io.HiveSequenceFileOutputFormat
  62.                           serde: org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe
  63.       Local Work:
  64.         Map Reduce Local Work
  65.   Stage: Stage-0
  66.     Fetch Operator
  67.       limit: -1
  68.       Processor Tree:
  69.         ListSink

在第二条sql语句前加上 explain,得到如下结果

  1. hive (default)> explain select a.id,b.user_name from(select * from  test1 where id>2 ) a join test2 b on a.id=b.id;
  2. OK
  3. Explain
  4. STAGE DEPENDENCIES:
  5.   Stage-4 is a root stage
  6.   Stage-3 depends on stages: Stage-4
  7.   Stage-0 depends on stages: Stage-3
  8. STAGE PLANS:
  9.   Stage: Stage-4
  10.     Map Reduce Local Work
  11.       Alias -> Map Local Tables:
  12.         $hdt$_0:test1
  13.           Fetch Operator
  14.             limit: -1
  15.       Alias -> Map Local Operator Tree:
  16.         $hdt$_0:test1
  17.           TableScan
  18.             alias: test1
  19.             Statistics: Num rows: 6 Data size75 Basic stats: COMPLETE Column stats: NONE
  20.             Filter Operator
  21.               predicate: (id > 2) (typeboolean)
  22.               Statistics: Num rows: 2 Data size25 Basic stats: COMPLETE Column stats: NONE
  23.               Select Operator
  24.                 expressions: id (type: int)
  25.                 outputColumnNames: _col0
  26.                 Statistics: Num rows: 2 Data size25 Basic stats: COMPLETE Column stats: NONE
  27.                 HashTable Sink Operator
  28.                   keys:
  29.                     0 _col0 (type: int)
  30.                     1 _col0 (type: int)
  31.   Stage: Stage-3
  32.     Map Reduce
  33.       Map Operator Tree:
  34.           TableScan
  35.             alias: b
  36.             Statistics: Num rows: 6 Data size75 Basic stats: COMPLETE Column stats: NONE
  37.             Filter Operator
  38.               predicate: (id > 2) (typeboolean)
  39.               Statistics: Num rows: 2 Data size25 Basic stats: COMPLETE Column stats: NONE
  40.               Select Operator
  41.                 expressions: id (type: int), user_name (typestring)
  42.                 outputColumnNames: _col0, _col1
  43.                 Statistics: Num rows: 2 Data size25 Basic stats: COMPLETE Column stats: NONE
  44.                 Map Join Operator
  45.                   condition map:
  46.                        Inner Join 0 to 1
  47.                   keys:
  48.                     0 _col0 (type: int)
  49.                     1 _col0 (type: int)
  50.                   outputColumnNames: _col0, _col2
  51.                   Statistics: Num rows: 2 Data size27 Basic stats: COMPLETE Column stats: NONE
  52.                   Select Operator
  53.                     expressions: _col0 (type: int), _col2 (typestring)
  54.                     outputColumnNames: _col0, _col1
  55.                     Statistics: Num rows: 2 Data size27 Basic stats: COMPLETE Column stats: NONE
  56.                     File Output Operator
  57.                       compressed: false
  58.                       Statistics: Num rows: 2 Data size27 Basic stats: COMPLETE Column stats: NONE
  59.                       table:
  60.                           input format: org.apache.hadoop.mapred.SequenceFileInputFormat
  61.                           output format: org.apache.hadoop.hive.ql.io.HiveSequenceFileOutputFormat
  62.                           serde: org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe
  63.       Local Work:
  64.         Map Reduce Local Work
  65.   Stage: Stage-0
  66.     Fetch Operator
  67.       limit: -1
  68.       Processor Tree:
  69.         ListSink

大家有什么发现,除了表别名不一样,其他的执行计划完全一样,都是先进行 where 条件过滤,在进行 join 条件关联。说明 hive 底层会自动帮我们进行优化,所以这两条sql语句执行效率是一样的

以上仅列举了3个我们生产中既熟悉又有点迷糊的例子,explain 还有很多其他的用途,如查看stage的依赖情况、排查数据倾斜、hive 调优等,小伙伴们可以自行尝试。

2. explain dependency的用法

explain dependency用于描述一段SQL需要的数据来源,输出是一个json格式的数据,里面包含以下两个部分的内容:

  • input_partitions:描述一段SQL依赖的数据来源表分区,里面存储的是分区名的列表,如果整段SQL包含的所有表都是非分区表,则显示为空。

  • input_tables:描述一段SQL依赖的数据来源表,里面存储的是Hive表名的列表。

使用explain dependency查看SQL查询非分区普通表,在 hive cli 中输入以下命令:

explain dependency select s_age,count(1) num from student_orc;

得到结果:

{"input_partitions":[],"input_tables":[{"tablename":"default@student_tb _orc","tabletype":"MANAGED_TABLE"}]}

使用explain dependency查看SQL查询分区表,在 hive cli 中输入以下命令:

explain dependency select s_age,count(1) num from student_orc_partition;

得到结果:

  1. {"input_partitions":[{"partitionName":"default@student_orc_partition@ part=0"}, 
  2. {"partitionName":"default@student_orc_partition@part=1"}, 
  3. {"partitionName":"default@student_orc_partition@part=2"}, 
  4. {"partitionName":"default@student_orc_partition@part=3"},
  5. {"partitionName":"default@student_orc_partition@part=4"}, 
  6. {"partitionName":"default@student_orc_partition@part=5"},
  7. {"partitionName":"default@student_orc_partition@part=6"},
  8. {"partitionName":"default@student_orc_partition@part=7"},
  9. {"partitionName":"default@student_orc_partition@part=8"},
  10. {"partitionName":"default@student_orc_partition@part=9"}], 
  11. "input_tables":[{"tablename":"default@student_orc_partition""tabletype":"MANAGED_TABLE"}]

explain dependency的使用场景有两个:

  • 场景一:快速排除。快速排除因为读取不到相应分区的数据而导致任务数据输出异常。例如,在一个以天分区的任务中,上游任务因为生产过程不可控因素出现异常或者空跑,导致下游任务引发异常。通过这种方式,可以快速查看SQL读取的分区是否出现异常。

  • 场景二:理清表的输入,帮助理解程序的运行,特别是有助于理解有多重子查询,多表连接的依赖输入。

下面通过两个案例来看explain dependency的实际运用:

案例一:识别看似等价的代码

对于刚接触SQL的程序员,很容易将

select * from a inner join b on a.no=b.no and a.f>1 and a.f<3;

等价于

select * from a inner join b on a.no=b.no where a.f>1 and a.f<3;

我们可以通过案例来查看下它们的区别:

代码1

  1. select 
  2. a.s_no 
  3. from student_orc_partition a 
  4. inner join 
  5. student_orc_partition_only b 
  6. on a.s_no=b.s_no and a.part=b.part and a.part>=1 and a.part<=2;

代码2

  1. select 
  2. a.s_no 
  3. from student_orc_partition a 
  4. inner join 
  5. student_orc_partition_only b 
  6. on a.s_no=b.s_no and a.part=b.part 
  7. where a.part>=1 and a.part<=2;

我们看下上述两段代码explain dependency的输出结果:

代码1的explain dependency结果

  1. {"input_partitions"
  2. [{"partitionName":"default@student_orc_partition@part=0"}, 
  3. {"partitionName":"default@student_orc_partition@part=1"}, 
  4. {"partitionName":"default@student_orc_partition@part=2"},
  5. {"partitionName":"default@student_orc_partition_only@part=1"}, 
  6. {"partitionName":"default@student_orc_partition_only@part=2"}], 
  7. "input_tables": [{"tablename":"default@student_orc_partition","tabletype":"MANAGED_TABLE"}, {"tablename":"default@student_orc_partition_only","tabletype":"MANAGED_TABLE"}]}

代码2的explain dependency结果

  1. {"input_partitions"
  2. [{"partitionName":"default@student_orc_partition@part=1"}, 
  3. {"partitionName" : "default@student_orc_partition@part=2"},
  4. {"partitionName" :"default@student_orc_partition_only@part=1"},
  5. {"partitionName":"default@student_orc_partition_only@part=2"}], 
  6. "input_tables": [{"tablename":"default@student_orc_partition","tabletype":"MANAGED_TABLE"}, {"tablename":"default@student_orc_partition_only","tabletype":"MANAGED_TABLE"}]}

通过上面的输出结果可以看到,其实上述的两个SQL并不等价,代码1在内连接(inner join)中的连接条件(on)中加入非等值的过滤条件后,并没有将内连接的左右两个表按照过滤条件进行过滤,内连接在执行时会多读取part=0的分区数据。而在代码2中,会过滤掉不符合条件的分区。

案例二:识别SQL读取数据范围的差别

代码1

  1. explain dependency
  2. select
  3. a.s_no 
  4. from student_orc_partition a 
  5. left join 
  6. student_orc_partition_only b 
  7. on a.s_no=b.s_no and a.part=b.part and b.part>=1 and b.part<=2;

代码2

  1. explain dependency 
  2. select 
  3. a.s_no 
  4. from student_orc_partition a 
  5. left join 
  6. student_orc_partition_only b 
  7. on a.s_no=b.s_no and a.part=b.part and a.part>=1 and a.part<=2;

以上两个代码的数据读取范围是一样的吗?答案是不一样,我们通过explain dependency来看下:

代码1的explain dependency结果

  1. {"input_partitions"
  2. [{"partitionName""default@student_orc_partition@part=0"}, 
  3. {"partitionName":"default@student_orc_partition@part=1"}, …中间省略7个分区
  4. {"partitionName":"default@student_orc_partition@part=9"}, 
  5. {"partitionName":"default@student_orc_partition_only@part=1"}, 
  6. {"partitionName":"default@student_orc_partition_only@part=2"}], 
  7. "input_tables": [{"tablename":"default@student_orc_partition","tabletype":"MANAGED_TABLE"}, {"tablename":"default@student_orc_partition_only","tabletype":"MANAGED_TABLE"}]}

代码2的explain dependency结果

  1. {"input_partitions"
  2. [{"partitionName":"default@student_orc_partition@part=0"}, 
  3. {"partitionName":"default@student_orc_partition@part=1"}, …中间省略7个分区 
  4. {"partitionName":"default@student_orc_partition@part=9"}, 
  5. {"partitionName":"default@student_orc_partition_only@part=0"}, 
  6. {"partitionName":"default@student_orc_partition_only@part=1"}, …中间省略7个分区 
  7. {"partitionName":"default@student_orc_partition_only@part=9"}],
  8. "input_tables": [{"tablename":"default@student_orc_partition","tabletype":"MANAGED_TABLE"}, {"tablename":"default@student_orc_partition_only","tabletype":"MANAGED_TABLE"}]}

可以看到,对左外连接在连接条件中加入非等值过滤的条件,如果过滤条件是作用于右表(b表)有起到过滤的效果,则右表只要扫描两个分区即可,但是左表(a表)会进行全表扫描。如果过滤条件是针对左表,则完全没有起到过滤的作用,那么两个表将进行全表扫描。这时的情况就如同全外连接一样都需要对两个数据进行全表扫描。

在使用过程中,容易认为代码片段2可以像代码片段1一样进行数据过滤,通过查看explain dependency的输出结果,可以知道不是如此。

3. explain authorization 的用法

通过explain authorization可以知道当前SQL访问的数据来源(INPUTS) 和数据输出(OUTPUTS),以及当前Hive的访问用户 (CURRENT_USER)和操作(OPERATION)。

在 hive cli 中输入以下命令:

  1. explain authorization 
  2. select variance(s_scorefrom student_tb_orc;

结果如下:

  1. INPUTS: 
  2.   default@student_tb_orc 
  3. OUTPUTS: 
  4.   hdfs://node01:8020/tmp/hive/hdfs/cbf182a5-8258-4157-919490f1475a3ed5/-mr-10000 
  5. CURRENT_USER: 
  6.   hdfs 
  7. OPERATION: 
  8.   QUERY 
  9. AUTHORIZATION_FAILURES: 
  10.   No privilege 'Select' found for inputs { database:defaulttable:student_ tb_orc, columnName:s_score}

从上面的信息可知:

上面案例的数据来源是defalut数据库中的 student_tb_orc表;

数据的输出路径是hdfs://node01:8020/tmp/hive/hdfs/cbf182a5-8258-4157-9194-90f1475a3ed5/-mr-10000;

当前的操作用户是hdfs,操作是查询;

观察上面的信息我们还会看到AUTHORIZATION_FAILURES信息,提示对当前的输入没有查询权限,但如果运行上面的SQL的话也能够正常运行。为什么会出现这种情况?Hive在默认不配置权限管理的情况下不进行权限验证,所有的用户在Hive里面都是超级管理员,即使不对特定的用户进行赋权,也能够正常查询

最后

通过上面对explain的介绍,可以发现explain中有很多值得我们去研究的内容,读懂 explain 的执行计划有利于我们优化Hive SQL,同时也能提升我们对SQL的掌控力。

八、Hive SQL底层执行原理

本节结构采用宏观着眼,微观入手,从整体到细节的方式剖析 Hive SQL 底层原理。第一节先介绍 Hive 底层的整体执行流程,然后第二节介绍执行流程中的 SQL 编译成 MapReduce 的过程,第三节剖析 SQL 编译成 MapReduce 的具体实现原理。

Hive 底层执行架构

我们先来看下 Hive 的底层执行架构图, Hive 的主要组件与 Hadoop 交互的过程:

Hive底层执行架构

Hive底层执行架构

在 Hive 这一侧,总共有五个组件:

  1. UI:用户界面。可看作我们提交SQL语句的命令行界面。

  2. DRIVER:驱动程序。接收查询的组件。该组件实现了会话句柄的概念。

  3. COMPILER:编译器。负责将 SQL 转化为平台可执行的执行计划。对不同的查询块和查询表达式进行语义分析,并最终借助表和从 metastore 查找的分区元数据来生成执行计划。

  4. METASTORE:元数据库。存储 Hive 中各种表和分区的所有结构信息。

  5. EXECUTION ENGINE:执行引擎。负责提交 COMPILER 阶段编译好的执行计划到不同的平台上。

上图的基本流程是:

步骤1:UI 调用 DRIVER 的接口;

步骤2:DRIVER 为查询创建会话句柄,并将查询发送到 COMPILER(编译器)生成执行计划;

步骤3和4:编译器从元数据存储中获取本次查询所需要的元数据,该元数据用于对查询树中的表达式进行类型检查,以及基于查询谓词修建分区;

步骤5:编译器生成的计划是分阶段的DAG,每个阶段要么是 map/reduce 作业,要么是一个元数据或者HDFS上的操作。将生成的计划发给 DRIVER。

如果是 map/reduce 作业,该计划包括 map operator trees 和一个 reduce operator tree,执行引擎将会把这些作业发送给 MapReduce :

步骤6、6.1、6.2和6.3:执行引擎将这些阶段提交给适当的组件。在每个 task(mapper/reducer) 中,从HDFS文件中读取与表或中间输出相关联的数据,并通过相关算子树传递这些数据。最终这些数据通过序列化器写入到一个临时HDFS文件中(如果不需要 reduce 阶段,则在 map 中操作)。临时文件用于向计划中后面的 map/reduce 阶段提供数据。

步骤7、8和9:最终的临时文件将移动到表的位置,确保不读取脏数据(文件重命名在HDFS中是原子操作)。对于用户的查询,临时文件的内容由执行引擎直接从HDFS读取,然后通过Driver发送到UI。

Hive SQL 编译成 MapReduce 过程

编译 SQL 的任务是在上节中介绍的 COMPILER(编译器组件)中完成的。Hive将SQL转化为MapReduce任务,整个编译过程分为六个阶段:

Hive SQL编译过程

Hive SQL编译过程

  1. 词法、语法解析: Antlr 定义 SQL 的语法规则,完成 SQL 词法,语法解析,将 SQL 转化为抽象语法树 AST Tree;

Antlr是一种语言识别的工具,可以用来构造领域语言。使用Antlr构造特定的语言只需要编写一个语法文件,定义词法和语法替换规则即可,Antlr完成了词法分析、语法分析、语义分析、中间代码生成的过程。

  1. 语义解析: 遍历 AST Tree,抽象出查询的基本组成单元 QueryBlock;

  2. 生成逻辑执行计划: 遍历 QueryBlock,翻译为执行操作树 OperatorTree;

  3. 优化逻辑执行计划: 逻辑层优化器进行 OperatorTree 变换,合并 Operator,达到减少 MapReduce Job,减少数据传输及 shuffle 数据量;

  4. 生成物理执行计划: 遍历 OperatorTree,翻译为 MapReduce 任务;

  5. 优化物理执行计划: 物理层优化器进行 MapReduce 任务的变换,生成最终的执行计划。

下面对这六个阶段详细解析:

为便于理解,我们拿一个简单的查询语句进行展示,对5月23号的地区维表进行查询:

select * from dim.dim_region where dt = '2021-05-23';

阶段一:词法、语法解析

根据Antlr定义的sql语法规则,将相关sql进行词法、语法解析,转化为抽象语法树AST Tree:

  1. ABSTRACT SYNTAX TREE:
  2. TOK_QUERY
  3.     TOK_FROM 
  4.     TOK_TABREF
  5.            TOK_TABNAME
  6.                dim
  7.                  dim_region
  8.     TOK_INSERT
  9.       TOK_DESTINATION
  10.           TOK_DIR
  11.               TOK_TMP_FILE
  12.         TOK_SELECT
  13.           TOK_SELEXPR
  14.               TOK_ALLCOLREF
  15.         TOK_WHERE
  16.           =
  17.               TOK_TABLE_OR_COL
  18.                   dt
  19.                     '2021-05-23'

阶段二:语义解析

遍历AST Tree,抽象出查询的基本组成单元QueryBlock:

AST Tree生成后由于其复杂度依旧较高,不便于翻译为mapreduce程序,需要进行进一步抽象和结构化,形成QueryBlock。

QueryBlock是一条SQL最基本的组成单元,包括三个部分:输入源,计算过程,输出。简单来讲一个QueryBlock就是一个子查询。

QueryBlock的生成过程为一个递归过程,先序遍历 AST Tree ,遇到不同的 Token 节点(理解为特殊标记),保存到相应的属性中。

阶段三:生成逻辑执行计划

遍历QueryBlock,翻译为执行操作树OperatorTree:

Hive最终生成的MapReduce任务,Map阶段和Reduce阶段均由OperatorTree组成。

基本的操作符包括:

  • TableScanOperator

  • SelectOperator

  • FilterOperator

  • JoinOperator

  • GroupByOperator

  • ReduceSinkOperator`

Operator在Map Reduce阶段之间的数据传递都是一个流式的过程。每一个Operator对一行数据完成操作后之后将数据传递给childOperator计算。

由于Join/GroupBy/OrderBy均需要在Reduce阶段完成,所以在生成相应操作的Operator之前都会先生成一个ReduceSinkOperator,将字段组合并序列化为Reduce Key/value, Partition Key。

阶段四:优化逻辑执行计划

Hive中的逻辑查询优化可以大致分为以下几类:

  • 投影修剪

  • 推导传递谓词

  • 谓词下推

  • 将Select-Select,Filter-Filter合并为单个操作

  • 多路 Join

  • 查询重写以适应某些列值的Join倾斜

阶段五:生成物理执行计划

生成物理执行计划即是将逻辑执行计划生成的OperatorTree转化为MapReduce Job的过程,主要分为下面几个阶段:

  1. 对输出表生成MoveTask

  2. 从OperatorTree的其中一个根节点向下深度优先遍历

  3. ReduceSinkOperator标示Map/Reduce的界限,多个Job间的界限

  4. 遍历其他根节点,遇过碰到JoinOperator合并MapReduceTask

  5. 生成StatTask更新元数据

  6. 剪断Map与Reduce间的Operator的关系

阶段六:优化物理执行计划

Hive中的物理优化可以大致分为以下几类:

  • 分区修剪(Partition Pruning)

  • 基于分区和桶的扫描修剪(Scan pruning)

  • 如果查询基于抽样,则扫描修剪

  • 在某些情况下,在 map 端应用 Group By

  • 在 mapper 上执行 Join

  • 优化 Union,使Union只在 map 端执行

  • 在多路 Join 中,根据用户提示决定最后流哪个表

  • 删除不必要的 ReduceSinkOperators

  • 对于带有Limit子句的查询,减少需要为该表扫描的文件数

  • 对于带有Limit子句的查询,通过限制 ReduceSinkOperator 生成的内容来限制来自 mapper 的输出

  • 减少用户提交的SQL查询所需的Tez作业数量

  • 如果是简单的提取查询,避免使用MapReduce作业

  • 对于带有聚合的简单获取查询,执行不带 MapReduce 任务的聚合

  • 重写 Group By 查询使用索引表代替原来的表

  • 当表扫描之上的谓词是相等谓词且谓词中的列具有索引时,使用索引扫描


经过以上六个阶段,SQL 就被解析映射成了集群上的 MapReduce 任务。

SQL编译成MapReduce具体原理

在阶段五-生成物理执行计划,即遍历 OperatorTree,翻译为 MapReduce 任务,这个过程具体是怎么转化的呢

我们接下来举几个常用 SQL 语句转化为 MapReduce 的具体步骤:

Join的实现原理

以下面这个SQL为例,讲解 join 的实现:

select u.name, o.orderid from order o join user u on o.uid = u.uid;

在map的输出value中为不同表的数据打上tag标记,在reduce阶段根据tag判断数据来源。MapReduce的过程如下:

MapReduce CommonJoin的实现

MapReduce CommonJoin的实现

Group By的实现原理

以下面这个SQL为例,讲解 group by 的实现:

select rank, isonline, count(*from city group by rank, isonline;

将GroupBy的字段组合为map的输出key值,利用MapReduce的排序,在reduce阶段保存LastKey区分不同的key。MapReduce的过程如下:

MapReduce Group By的实现

MapReduce Group By的实现

Distinct的实现原理

以下面这个SQL为例,讲解 distinct 的实现:

select dealid, count(distinct uid) num from order group by dealid;

当只有一个distinct字段时,如果不考虑Map阶段的Hash GroupBy,只需要将GroupBy字段和Distinct字段组合为map输出key,利用mapreduce的排序,同时将GroupBy字段作为reduce的key,在reduce阶段保存LastKey即可完成去重:

MapReduce Distinct的实现

MapReduce Distinct的实现

九、Hive千亿级数据倾斜

数据倾斜问题剖析

数据倾斜是分布式系统不可避免的问题,任何分布式系统都有几率发生数据倾斜,但有些小伙伴在平时工作中感知不是很明显,这里要注意本篇文章的标题—“千亿级数据”,为什么说千亿级,因为如果一个任务的数据量只有几百万,它即使发生了数据倾斜,所有数据都跑到一台机器去执行,对于几百万的数据量,一台机器执行起来还是毫无压力的,这时数据倾斜对我们感知不大,只有数据达到一个量级时,一台机器应付不了这么多的数据,这时如果发生数据倾斜,那么最后就很难算出结果。

所以就需要我们对数据倾斜的问题进行优化,尽量避免或减轻数据倾斜带来的影响。

在解决数据倾斜问题之前,还要再提一句:没有瓶颈时谈论优化,都是自寻烦恼。

大家想想,在map和reduce两个阶段中,最容易出现数据倾斜的就是reduce阶段,因为map到reduce会经过shuffle阶段,在shuffle中默认会按照key进行hash,如果相同的key过多,那么hash的结果就是大量相同的key进入到同一个reduce中,导致数据倾斜。

那么有没有可能在map阶段就发生数据倾斜呢,是有这种可能的。

一个任务中,数据文件在进入map阶段之前会进行切分,默认是128M一个数据块,但是如果当对文件使用GZIP压缩等不支持文件分割操作的压缩方式时,MR任务读取压缩后的文件时,是对它切分不了的,该压缩文件只会被一个任务所读取,如果有一个超大的不可切分的压缩文件被一个map读取时,就会发生map阶段的数据倾斜。

所以,从本质上来说,发生数据倾斜的原因有两种:一是任务中需要处理大量相同的key的数据。二是任务读取不可分割的大文件

数据倾斜解决方案

MapReduce和Spark中的数据倾斜解决方案原理都是类似的,以下讨论Hive使用MapReduce引擎引发的数据倾斜,Spark数据倾斜也可以此为参照。

1. 空值引发的数据倾斜

实际业务中有些大量的null值或者一些无意义的数据参与到计算作业中,表中有大量的null值,如果表之间进行join操作,就会有shuffle产生,这样所有的null值都会被分配到一个reduce中,必然产生数据倾斜。

之前有小伙伴问,如果A、B两表join操作,假如A表中需要join的字段为null,但是B表中需要join的字段不为null,这两个字段根本就join不上啊,为什么还会放到一个reduce中呢?

这里我们需要明确一个概念,数据放到同一个reduce中的原因不是因为字段能不能join上,而是因为shuffle阶段的hash操作,只要key的hash结果是一样的,它们就会被拉到同一个reduce中。

解决方案

第一种:可以直接不让null值参与join操作,即不让null值有shuffle阶段

  1. SELECT *
  2. FROM log a
  3.  JOIN users b
  4.  ON a.user_id IS NOT NULL
  5.   AND a.user_id = b.user_id
  6. UNION ALL
  7. SELECT *
  8. FROM log a
  9. WHERE a.user_id IS NULL;

第二种:因为null值参与shuffle时的hash结果是一样的,那么我们可以给null值随机赋值,这样它们的hash结果就不一样,就会进到不同的reduce中:

  1. SELECT *
  2. FROM log a
  3.  LEFT JOIN users b ON CASE 
  4.    WHEN a.user_id IS NULL THEN concat('hive_', rand())
  5.    ELSE a.user_id
  6.   END = b.user_id;

2. 不同数据类型引发的数据倾斜

对于两个表join,表a中需要join的字段key为int,表b中key字段既有string类型也有int类型。当按照key进行两个表的join操作时,默认的Hash操作会按int型的id来进行分配,这样所有的string类型都被分配成同一个id,结果就是所有的string类型的字段进入到一个reduce中,引发数据倾斜。

解决方案

如果key字段既有string类型也有int类型,默认的hash就都会按int类型来分配,那我们直接把int类型都转为string就好了,这样key字段都为string,hash时就按照string类型分配了:

  1. SELECT *
  2. FROM users a
  3.  LEFT JOIN logs b ON a.usr_id = CAST(b.user_id AS string);

3. 不可拆分大文件引发的数据倾斜

当集群的数据量增长到一定规模,有些数据需要归档或者转储,这时候往往会对数据进行压缩;当对文件使用GZIP压缩等不支持文件分割操作的压缩方式,在日后有作业涉及读取压缩后的文件时,该压缩文件只会被一个任务所读取。如果该压缩文件很大,则处理该文件的Map需要花费的时间会远多于读取普通文件的Map时间,该Map任务会成为作业运行的瓶颈。这种情况也就是Map读取文件的数据倾斜。

解决方案:

这种数据倾斜问题没有什么好的解决方案,只能将使用GZIP压缩等不支持文件分割的文件转为bzip和zip等支持文件分割的压缩方式。

所以,我们在对文件进行压缩时,为避免因不可拆分大文件而引发数据读取的倾斜,在数据压缩的时候可以采用bzip2和Zip等支持文件分割的压缩算法

4. 数据膨胀引发的数据倾斜

在多维聚合计算时,如果进行分组聚合的字段过多,如下:

select a,b,c,count(1)from log group by a,b,c with rollup;

注:对于最后的with rollup关键字不知道大家用过没,with rollup是用来在分组统计数据的基础上再进行统计汇总,即用来得到group by的汇总信息。

如果上面的log表的数据量很大,并且Map端的聚合不能很好地起到数据压缩的情况下,会导致Map端产出的数据急速膨胀,这种情况容易导致作业内存溢出的异常。如果log表含有数据倾斜key,会加剧Shuffle过程的数据倾斜。

解决方案

可以拆分上面的sql,将with rollup拆分成如下几个sql:

  1. SELECT a, b, c, COUNT(1)
  2. FROM log
  3. GROUP BY a, b, c;
  4. SELECT a, b, NULLCOUNT(1)
  5. FROM log
  6. GROUP BY a, b;
  7. SELECT a, NULLNULLCOUNT(1)
  8. FROM log
  9. GROUP BY a;
  10. SELECT NULLNULLNULLCOUNT(1)
  11. FROM log;

但是,上面这种方式不太好,因为现在是对3个字段进行分组聚合,那如果是5个或者10个字段呢,那么需要拆解的SQL语句会更多。

在Hive中可以通过参数 hive.new.job.grouping.set.cardinality 配置的方式自动控制作业的拆解,该参数默认值是30。表示针对grouping sets/rollups/cubes这类多维聚合的操作,如果最后拆解的键组合大于该值,会启用新的任务去处理大于该值之外的组合。如果在处理数据时,某个分组聚合的列有较大的倾斜,可以适当调小该值。

5. 表连接时引发的数据倾斜

两表进行普通的repartition join时,如果表连接的键存在倾斜,那么在 Shuffle 阶段必然会引起数据倾斜。

解决方案

通常做法是将倾斜的数据存到分布式缓存中,分发到各个 Map任务所在节点。在Map阶段完成join操作,即MapJoin,这避免了 Shuffle,从而避免了数据倾斜。

MapJoin是Hive的一种优化操作,其适用于小表JOIN大表的场景,由于表的JOIN操作是在Map端且在内存进行的,所以其并不需要启动Reduce任务也就不需要经过shuffle阶段,从而能在一定程度上节省资源提高JOIN效率。

在Hive 0.11版本之前,如果想在Map阶段完成join操作,必须使用MAPJOIN来标记显示地启动该优化操作,由于其需要将小表加载进内存所以要注意小表的大小

如将a表放到Map端内存中执行,在Hive 0.11版本之前需要这样写:

  1. select /* +mapjoin(a) */ a.id , a.name, b.age 
  2. from a join b 
  3. on a.id = b.id;

如果想将多个表放到Map端内存中,只需在mapjoin()中写多个表名称即可,用逗号分隔,如将a表和c表放到Map端内存中,则 /* +mapjoin(a,c) */

在Hive 0.11版本及之后,Hive默认启动该优化,也就是不在需要显示的使用MAPJOIN标记,其会在必要的时候触发该优化操作将普通JOIN转换成MapJoin,可以通过以下两个属性来设置该优化的触发时机:

hive.auto.convert.join=true 默认值为true,自动开启MAPJOIN优化。

hive.mapjoin.smalltable.filesize=2500000 默认值为2500000(25M),通过配置该属性来确定使用该优化的表的大小,如果表的大小小于此值就会被加载进内存中。

注意:使用默认启动该优化的方式如果出现莫名其妙的BUG(比如MAPJOIN并不起作用),就将以下两个属性置为fase手动使用MAPJOIN标记来启动该优化:

hive.auto.convert.join=false (关闭自动MAPJOIN转换操作)

hive.ignore.mapjoin.hint=false (不忽略MAPJOIN标记)

再提一句:将表放到Map端内存时,如果节点的内存很大,但还是出现内存溢出的情况,我们可以通过这个参数 mapreduce.map.memory.mb 调节Map端内存的大小。

6. 确实无法减少数据量引发的数据倾斜

在一些操作中,我们没有办法减少数据量,如在使用 collect_list 函数时:

  1. select s_age,collect_list(s_score) list_score
  2. from student
  3. group by s_age

collect_list:将分组中的某列转为一个数组返回。

在上述sql中,s_age有数据倾斜,但如果数据量大到一定的数量,会导致处理倾斜的Reduce任务产生内存溢出的异常。

collect_list输出一个数组,中间结果会放到内存中,所以如果collect_list聚合太多数据,会导致内存溢出。

有小伙伴说这是 group by 分组引起的数据倾斜,可以开启hive.groupby.skewindata参数来优化。我们接下来分析下:

开启该配置会将作业拆解成两个作业,第一个作业会尽可能将Map的数据平均分配到Reduce阶段,并在这个阶段实现数据的预聚合,以减少第二个作业处理的数据量;第二个作业在第一个作业处理的数据基础上进行结果的聚合。

hive.groupby.skewindata的核心作用在于生成的第一个作业能够有效减少数量。但是对于collect_list这类要求全量操作所有数据的中间结果的函数来说,明显起不到作用,反而因为引入新的作业增加了磁盘和网络I/O的负担,而导致性能变得更为低下。

解决方案

这类问题最直接的方式就是调整reduce所执行的内存大小。

调整reduce的内存大小使用mapreduce.reduce.memory.mb这个配置。

总结

通过上面的内容我们发现,shuffle阶段堪称性能的杀手,为什么这么说,一方面shuffle阶段是最容易引起数据倾斜的;另一方面shuffle的过程中会产生大量的磁盘I/O、网络I/O 以及压缩、解压缩、序列化和反序列化等。这些操作都是严重影响性能的。

所以围绕shuffle和数据倾斜有很多的调优点:

  • Mapper 端的Buffer 设置为多大? Buffer 设置得大,可提升性能,减少磁盘I/O ,但 是对内存有要求,对GC 有压力; Buffer 设置得小,可能不占用那么多内存, 但是可 能频繁的磁盘I/O 、频繁的网络I/O 。

十、Hive企业级性能优化

十一、Hive大厂面试真题

附:九个最易出错的SQL讲解

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/正经夜光杯/article/detail/981550
推荐阅读
相关标签
  

闽ICP备14008679号