当前位置:   article > 正文

Hadoop生态圈技术栈(上)---hive_h猿大山

h猿大山

第一部分 Hive安装与配置

第 1 节 Hive安装配置


Hive官网:http://hive.apache.org
下载网址:http://archive.apache.org/dist/hive/
文档网址:https://cwiki.apache.org/confluence/display/Hive/LanguageManual
安装前提:3台虚拟机,安装了Hadoop
安装软件:Hive(2.3.7) + MySQL (5.7.26)
备注:Hive的元数据默认存储在自带的 derby 数据库中,生产中多采用MySQL

derby:java语言开发占用资源少,单进程,单用户。仅仅适用于个人的测试。

  1. # hive安装包
  2. apache-hive-2.3.7-bin.tar.gz
  3. # MySQL安装包
  4. mysql-5.7.26-1.el7.x86_64.rpm-bundle.tar
  5. # MySQL的JDBC驱动程序
  6. mysql-connector-java-5.1.46.jar
  7. # 整体的安装步骤:
  8. 1、安装MySQL
  9. 2、安装配置Hive
  10. 3、Hive添加常用配置

 1.1、MySQL安装
Hive中使用MySQL存储元数据,MySQL的版本 5.7.26。安装步骤:

  1. 1、环境准备(删除有冲突的依赖包、安装必须的依赖包)
  2. 2、安装MySQL
  3. 3、修改root口令(找到系统给定的随机口令、修改口令)
  4. 4、在数据库中创建hive用户


1、删除MariaDB
centos7.6自带的 MariaDB(MariaDB是MySQL的一个分支),与要安装的MySQL有冲突,需要删除。

  1. # 查询是否安装了mariadb
  2. rpm -aq | grep mariadb
  3. # 删除mariadb。-e 删除指定的套件;--nodeps 不验证套件的相互关联性
  4. rpm -e --nodeps mariadb-libs


2、安装依赖

  1. yum install perl -y
  2. yum install net-tools -y


3、安装MySQL

  1. # 接压缩
  2. tar xvf mysql-5.7.26-1.el7.x86_64.rpm-bundle.tar
  3. # 依次运行以下命令
  4. rpm -ivh mysql-community-common-5.7.26-1.el7.x86_64.rpm
  5. rpm -ivh mysql-community-libs-5.7.26-1.el7.x86_64.rpm
  6. rpm -ivh mysql-community-client-5.7.26-1.el7.x86_64.rpm
  7. rpm -ivh mysql-community-server-5.7.26-1.el7.x86_64.rpm

4、启动数据库

systemctl start mysqld

5、查找root密码

grep password /var/log/mysqld.log

6、修改 root 口令

  1. # 进入MySQL,使用前面查询到的口令
  2. mysql -u root -p
  3. # 设置口令强度;将root口令设置为12345678;刷新
  4. set global validate_password_policy=0;
  5. set password for 'root'@'localhost' =password('12345678');
  6. flush privileges;

validate_password_policy 密码策略(默认是1),可配置的值有以下:

  • 0 or LOW 仅需需符合密码长度(由参数validate_password_length【默认为8】指定)
  • 1 or MEDIUM 满足LOW策略,同时还需满足至少有1个数字,小写字母,大写字母和特殊字符
  • 2 or STRONG 满足MEDIUM策略,同时密码不能存在字典文件(dictionaryfile)中

备注:个人开发环境,出于方便的目的设比较简单的密码;生产环境一定要设复杂密码!
7、创建 hive 用户

  1. -- 创建用户设置口令、授权、刷新
  2. CREATE USER 'hive'@'%' IDENTIFIED BY '12345678';
  3. GRANT ALL ON *.* TO 'hive'@'%';
  4. FLUSH PRIVILEGES;

1.2、Hive 安装

安装步骤:
1、下载、上传、解压缩
2、修改环境变量
3、修改hive配置
4、拷贝JDBC的驱动程序
5、初始化元数据库

1、下载Hive软件,并解压缩

  1. cd /opt/lagou/software
  2. tar zxvf apache-hive-2.3.7-bin.tar.gz -C ../servers/
  3. cd ../servers
  4. mv apache-hive-2.3.7-bin hive-2.3.7

2、修改环境变量

  1. # 在 /etc/profile 文件中增加环境变量
  2. export HIVE_HOME=/opt/lagou/servers/hive-2.3.7
  3. export PATH=$PATH:$HIVE_HOME/bin
  4. # 执行并生效
  5. source /etc/profile

3、修改 Hive 配置
cd $HIVE_HOME/conf vi hive-site.xml 增加以下内容:

  1. <?xml version="1.0" encoding="UTF-8" standalone="no"?>
  2. <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
  3. <configuration>
  4. <!-- hive元数据的存储位置 -->
  5. <property>
  6. <name>javax.jdo.option.ConnectionURL</name>
  7. <value>jdbc:mysql://hadoop-3:3306/hivemetadata?createDatabaseIfNotExist=true&amp;useSSL=false</value>
  8. <description>JDBC connect string for a JDBC metastore</description>
  9. </property>
  10. <!-- 指定驱动程序 -->
  11. <property>
  12. <name>javax.jdo.option.ConnectionDriverName</name>
  13. <value>com.mysql.jdbc.Driver</value>
  14. <description>Driver class name for a JDBC metastore</description>
  15. </property>
  16. <!-- 连接数据库的用户名 -->
  17. <property>
  18. <name>javax.jdo.option.ConnectionUserName</name>
  19. <value>hive</value>
  20. <description>username to use against metastore database</description>
  21. </property>
  22. <!-- 连接数据库的口令 -->
  23. <property>
  24. <name>javax.jdo.option.ConnectionPassword</name>
  25. <value>12345678</value>
  26. <description>password to use against metastore database</description>
  27. </property>
  28. </configuration>

备注:
注意jdbc的连接串,如果没有 useSSL=false 会有大量警告
在xml文件中 & 表示 &
4、拷贝 MySQL JDBC 驱动程序
将 mysql-connector-java-5.1.46.jar 拷贝到 $HIVE_HOME/lib
5、初始化元数据库

schematool -dbType mysql -initSchema

6、启动Hive,执行命令

  1. # 启动hive服务之前,请先启动hdfs、yarn的服务
  2. [root@linux123 ~]$ hive
  3. hive> show functions;

1.3、Hive 属性配置
可在 hive-site.xml 中增加以下常用配置,方便使用。
数据存储位置

  1. <!-- 数据默认的存储位置(HDFS) -->
  2. <property>
  3. <name>hive.metastore.warehouse.dir</name>
  4. <value>/user/hive/warehouse</value>
  5. <description>location of default database for thewarehouse</description>
  6. </property>

显示当前库

  1. <!-- 在命令行中,显示当前操作的数据库 -->
  2. <property>
  3. <name>hive.cli.print.current.db</name>
  4. <value>true</value>
  5. <description>Whether to include the current database in the Hive prompt.</description>
  6. </property>

显示表头属性

  1. <!-- 在命令行中,显示数据的表头 -->
  2. <property>
  3. <name>hive.cli.print.header</name>
  4. <value>true</value>
  5. </property>

本地模式

  1. <!-- 操作小规模数据时,使用本地模式,提高效率 -->
  2. <property>
  3. <name>hive.exec.mode.local.auto</name>
  4. <value>true</value>
  5. <description>Let Hive determine whether to run in local mode automatically</description>
  6. </property>

备注:当 Hive 的输入数据量非常小时,Hive 通过本地模式在单台机器上处理所有的任务。对于小数据集,执行时间会明显被缩短。当一个job满足如下条件才能真正使用本地模式:

  • job的输入数据量必须小于参数:hive.exec.mode.local.auto.inputbytes.max(默认128MB)
  • job的map数必须小于参数:hive.exec.mode.local.auto.tasks.max (默认4)
  • job的reduce数必须为0或者1

Hive的日志文件


Hive的log默认存放在 /tmp/root 目录下(root为当前用户名);这个位置可以修改。

  1. vi $HIVE_HOME/conf/hive-log4j2.properties
  2. # 添加以下内容:
  3. property.hive.log.dir = /opt/lagou/servers/hive-2.3.7/logs

可以不修改,但是要知道位置。
Hadoop 2.x 中 NameNode RPC缺省的端口号:8020
对端口号要敏感
附录:添加第三方用户(Hadoop)

  1. groupadd hadoop
  2. # -m:自动建立用户的登入目录
  3. # -g:指定用户所属的起始群组
  4. # -G<群组>:指定用户所属的附加群组
  5. # -s:指定用户登入后所使用的shell
  6. useradd -m hadoop -g hadoop -s /bin/bash
  7. passwd hadoop
  8. visudo
  9. # 在100行后添加。允许用户执行sudo,免密
  10. hadoop ALL=(ALL) NOPASSWD:ALL

建议:现阶段使用root用户
小结:
1、添加了配置,使用Hive更方便;
2、删除了有冲突的软件包(hive)
3、Hive的日志在哪里(/tmp/root)
4、第三方用户使用Hive。建议使用root用户
5、NameNode 缺省的RPC(远程过程调用)端口号8020,经常使用的端口号9000
2.1.4、参数配置方式
查看参数配置信息:

  1. -- 查看全部参数
  2. hive> set;
  3. -- 查看某个参数
  4. hive> set hive.exec.mode.local.auto;
  5. hive.exec.mode.local.auto=false

参数配置的三种方式:

  1. 1、用户自定义配置文件(hive-site.xml)
  2. 2、启动hive时指定参数(-hiveconf)
  3. 3、hive命令行指定参数(set)
  4. 配置信息的优先级:
  5. set > -hiveconf > hive-site.xml > hive-default.xml

1、配置文件方式
默认配置文件:hive-default.xml
用户自定义配置文件:hive-site.xml
配置优先级:hive-site.xml > hive-default.xml
配置文件的设定对本机启动的所有Hive进程有效;
配置文件的设定对本机所有启动的Hive进程有效;
2、启动时指定参数值
启动Hive时,可以在命令行添加 -hiveconf param=value 来设定参数,这些设定仅对本次启动有效。

  1. # 启动时指定参数
  2. hive -hiveconf hive.exec.mode.local.auto=true
  3. # 在命令行检查参数是否生效
  4. hive> set hive.exec.mode.local.auto;
  5. hive.exec.mode.local.auto=true

3、命令行修改参数
可在 Hive 命令行中使用SET关键字设定参数,同样仅对本次启动有效

  1. hive> set hive.exec.mode.local.auto=false;
  2. hive> set hive.exec.mode.local.auto;
  3. hive.exec.mode.local.auto=false

set > -hiveconf > hive-site.xml > hive-default.xml

第 2 节 Hive命令

1、Hive

  1. hive -help
  2. usage: hive
  3. -d,--define <key=value> Variable substitution to apply
  4. to Hive
  5. commands. e.g. -d A=B or --
  6. define A=B
  7. --database <databasename> Specify the database to use
  8. -e <quoted-query-string> SQL from command line
  9. -f <filename> SQL from files
  10. -H,--help Print help information
  11. --hiveconf <property=value> Use value for given property
  12. --hivevar <key=value> Variable substitution to apply
  13. to Hive
  14. commands. e.g. --hivevar A=B
  15. -i <filename> Initialization SQL file
  16. -S,--silent Silent mode in interactive
  17. shell
  18. -v,--verbose Verbose mode (echo executed SQL
  19. to the
  20. console)

-e:不进入hive交互窗口,执行sql语句

hive -e "select * from users"

-f:执行脚本中sql语句

  1. # 创建文件hqlfile1.sql,内容:select * from users
  2. # 执行文件中的SQL语句
  3. hive -f hqlfile1.sql
  4. # 执行文件中的SQL语句,将结果写入文件
  5. hive -f hqlfile1.sql >> result1.log

2、退出Hive命令行
exit; quit;

3、在命令行执行 shell 命令 / dfs 命令

  1. hive> ! ls;
  2. hive> ! clear;
  3. hive> dfs -ls / ;

第二部分 数据类型与文件格式

Hive支持关系型数据库的绝大多数基本数据类型,同时也支持4种集合数据类型。


第 1 节 基本数据类型及转换

Hive类似和java语言中一样,会支持多种不同长度的整型和浮点类型数据,同时也支持布尔类型、字符串类型,时间戳数据类型以及二进制数组数据类型等。详细信息见下表:


这些类型名称都是 Hive 中保留字。这些基本的数据类型都是 java 中的接口进行实现的,因此与 java 中数据类型是基本一致的:

数据类型的隐式转换

Hive的数据类型是可以进行隐式转换的,类似于Java的类型转换。如用户在查询中将一种浮点类型和另一种浮点类型的值做对比,Hive会将类型转换成两个浮点类型中值较大的那个类型,即:将FLOAT类型转换成DOUBLE类型;当然如果需要的话,任意整型会转化成DOUBLE类型。 Hive 中基本数据类型遵循以下层次结构,按照这个层次结构,子类型到祖先类型允许隐式转换。 

总的来说数据转换遵循以下规律:

  • 任何整数类型都可以隐式地转换为一个范围更广的类型,如 TINYINT 可以转换成 INT, INT 可以转换成 BIGINT;
  • 所有整数类型、 FLOAT 和 STRING 类型(仅当STRING都是数字时)可以隐式转换为 DOUBLE;
  • TINYINT、 SMALLINT、 INT 都可以转换为 FLOAT;
  • BOOLEAN 类型不可以转换为任何其它的类型;
  1. hive> select '1.0'+2;
  2. OK
  3. 3.0
  4. hive> select '1111' > 10;
  5. hive> select 1 > 0.8;

数据类型的显示转换
使用cast函数进行强制类型转换;如果强制类型转换失败,返回NULL

  1. hive> select cast('1111s' as int);
  2. OK
  3. NULL
  4. hive> select cast('1111' as int);
  5. OK
  6. 1111

第 2 节 集合数据类型

Hive支持集合数据类型,包括array、map、struct、union

和基本数据类型一样,这些类型的名称同样是保留字;
ARRAY 和 MAP 与 Java 中的 Array 和 Map 类似;
STRUCT 与 C 语言中的 Struct 类似,它封装了一个命名字段集合,复杂数据类型允许任意层次的嵌套; 

  1. hive> select array(1,2,3);
  2. OK
  3. [1,2,3]
  4. -- 使用 [] 访问数组元素
  5. hive> select arr[0] from (select array(1,2,3) arr) tmp;
  6. hive> select map('a', 1, 'b', 2, 'c', 3);
  7. OK
  8. {"a":1,"b":2,"c":3}
  9. -- 使用 [] 访问map元素
  10. hive> select mymap["a"] from (select map('a', 1, 'b', 2, 'c', 3) as mymap) tmp;
  11. -- 使用 [] 访问map元素。 key 不存在返回 NULL
  12. hive> select mymap["x"] from (select map('a', 1, 'b', 2, 'c', 3) as mymap) tmp;
  13. NULL
  14. hive> select struct('username1', 7, 1288.68);
  15. OK
  16. {"col1":"username1","col2":7,"col3":1288.68}
  17. -- 给 struct 中的字段命名
  18. hive> select named_struct("name", "username1", "id", 7, "salary",12880.68);
  19. OK
  20. {"name":"username1","id":7,"salary":12880.68}
  21. -- 使用 列名.字段名 访问具体信息
  22. hive> select userinfo.id
  23. > from (select named_struct("name", "username1", "id", 7,"salary", 12880.68) userinfo) tmp;
  24. -- union 数据类型
  25. hive> select create_union(0, "zhansan", 19, 8000.88) uinfo;

第 3 节 文本文件数据编码

Hive表中的数据在存储在文件系统上,Hive定义了默认的存储格式,也支持用户自定义文件存储格式。
Hive默认使用几个很少出现在字段值中的控制字符,来表示替换默认分隔符的字符。
Hive默认分隔符

  1. id name age hobby(array) score(map)
  2. 字段之间:^A
  3. 元素之间: ^B
  4. key-value之间:^C
  5. 666^Alisi^A18^Aread^Bgame^Ajava^C97^Bhadoop^C87

Hive 中没有定义专门的数据格式,数据格式可以由用户指定,用户定义数据格式需要指定三个属性:列分隔符(通常为空格、"\t"、"\x001")、行分隔符("\n")以及
读取文件数据的方法。
在加载数据的过程中,Hive 不会对数据本身进行任何修改,而只是将数据内容复制或者移动到相应的 HDFS 目录中。
将 Hive 数据导出到本地时,系统默认的分隔符是^A、^B、^C 这些特殊字符,使用cat 或者 vim 是看不到的;
在 vi 中输入特殊字符:
(Ctrl + v) + (Ctrl + a) => ^A
(Ctrl + v) + (Ctrl + b) => ^B
(Ctrl + v) + (Ctrl + c) => ^C
^A / ^B / ^C 都是特殊的控制字符,使用 more 、 cat 命令是看不见的;可以使用cat -A file.dat

第 4 节 读时模式

在传统数据库中,在加载时发现数据不符合表的定义,则拒绝加载数据。数据在写入数据库时对照表模式进行检查,这种模式称为"写时模式"(schema on write)。
写时模式 -> 写数据检查 -> RDBMS;Hive中数据加载过程采用"读时模式" (schema on read),加载数据时不进行数据格式的校验,读取数据时如果不合法则显示NULL。这种模式的优点是加载数据迅速。读时模式 -> 读时检查数据 -> Hive;好处:加载数据快;问题:数据显示NULL

第三部分 HQL操作之 -- DDL命令

参考:https://cwiki.apache.org/confluence/display/Hive/LanguageManual+DDL
DDL(data definition language): 主要的命令有CREATE、ALTER、DROP等。
DDL主要是用在定义、修改数据库对象的结构 或 数据类型。

第 1 节 数据库操作

Hive有一个默认的数据库default,在操作HQL时,如果不明确的指定要使用哪个库,则使用默认数据库;

  • Hive的数据库名、表名均不区分大小写;
  • 名字不能使用数字开头;
  • 不能使用关键字,尽量不使用特殊符号;

创建数据库语法

  1. CREATE (DATABASE|SCHEMA) [IF NOT EXISTS] database_name
  2. [COMMENT database_comment]
  3. [LOCATION hdfs_path]
  4. [MANAGEDLOCATION hdfs_path]
  5. [WITH DBPROPERTIES (property_name=property_value, ...)];
  6. -- 创建数据库,在HDFS上存储路径为 /user/hive/warehouse/*.db
  7. hive (default)> create database mydb;
  8. hive (default)> dfs -ls /user/hive/warehouse;
  9. -- 避免数据库已经存在时报错,使用 if not exists 进行判断【标准写法】
  10. hive (default)> create database if not exists mydb;
  11. -- 创建数据库。添加备注,指定数据库在存放位置
  12. hive (default)> create database if not exists mydb2
  13. comment 'this is mydb2'
  14. location '/user/hive/mydb2.db';

查看数据库

  1. -- 查看所有数据库
  2. show database;
  3. -- 查看数据库信息
  4. desc database mydb2;
  5. desc database extended mydb2;
  6. describe database extended mydb2;


使用数据库

use mydb;


删除数据库

  1. -- 删除一个空数据库
  2. drop database databasename;
  3. -- 如果数据库不为空,使用 cascade 强制删除
  4. drop database databasename cascade;

第 2 节 建表语法

  1. create [external] table [IF NOT EXISTS] table_name
  2. [(colName colType [comment 'comment'], ...)]
  3. [comment table_comment]
  4. [partition by (colName colType [comment col_comment], ...)]
  5. [clustered BY (colName, colName, ...)
  6. [sorted by (col_name [ASC|DESC], ...)] into num_buckets buckets]
  7. [row format row_format]
  8. [stored as file_format]
  9. [LOCATION hdfs_path]
  10. [TBLPROPERTIES (property_name=property_value, ...)]
  11. [AS select_statement];
  12. CREATE [TEMPORARY] [EXTERNAL] TABLE [IF NOT EXISTS]
  13. [db_name.]table_name
  14. LIKE existing_table_or_view_name
  15. [LOCATION hdfs_path]

1. CREATE TABLE。按给定名称创建表,如果表已经存在则抛出异常。可使用if notexists 规避。
2. EXTERNAL关键字。创建外部表,否则创建的是内部表(管理表)。
删除内部表时,数据和表的定义同时被删除;
删除外部表时,仅仅删除了表的定义,数据保留;
在生产环境中,多使用外部表;
3. comment。表的注释
4. partition by。对表中数据进行分区,指定表的分区字段
5. clustered by。创建分桶表,指定分桶字段
6. sorted by。对桶中的一个或多个列排序,较少使用
7. 存储子句。

  1. ROW FORMAT DELIMITED
  2. [FIELDS TERMINATED BY char]
  3. [COLLECTION ITEMS TERMINATED BY char]
  4. [MAP KEYS TERMINATED BY char]
  5. [LINES TERMINATED BY char] | SERDE serde_name
  6. [WITH SERDEPROPERTIES (property_name=property_value,
  7. property_name=property_value, ...)]

建表时可指定 SerDe 。如果没有指定 ROW FORMAT 或者 ROW FORMAT DELIMITED,将会使用默认的 SerDe。建表时还需要为表指定列,在指定列的同
时也会指定自定义的 SerDe。Hive通过 SerDe 确定表的具体的列的数据。
SerDe是 Serialize/Deserilize 的简称, hive使用Serde进行行对象的序列与反
序列化。

  • 8. stored as SEQUENCEFILE|TEXTFILE|RCFILE。如果文件数据是纯文本,可以使用 STORED AS TEXTFILE(缺省);如果数据需要压缩,使用 STORED AS
  • SEQUENCEFILE(二进制序列文件)。
  • 9. LOCATION。表在HDFS上的存放位置
  • 10. TBLPROPERTIES。定义表的属性
  • 11. AS。后面可以接查询语句,表示根据后面的查询结果创建表
  • 12. LIKE。like 表名,允许用户复制现有的表结构,但是不复制数据

第 3 节 内部表 & 外部表


在创建表的时候,可指定表的类型。表有两种类型,分别是内部表(管理表)、外部表。

  • 默认情况下,创建内部表。如果要创建外部表,需要使用关键字 external
  • 在删除内部表时,表的定义(元数据) 和 数据 同时被删除
  • 在删除外部表时,仅删除表的定义,数据被保留
  • 在生产环境中,多使用外部表

内部表
t1.dat文件内容

  1. 2;zhangsan;book,TV,code;beijing:chaoyang,shagnhai:pudong
  2. 3;lishi;book,code;nanjing:jiangning,taiwan:taibei
  3. 4;wangwu;music,book;heilongjiang:haerbin


创建表 SQL

  1. -- 创建内部表
  2. create table t1(
  3. id int,
  4. name string,
  5. hobby array<string>,
  6. addr map<string, string>
  7. )
  8. row format delimited
  9. fields terminated by ";"
  10. collection items terminated by ","
  11. map keys terminated by ":";
  12. -- 显示表的定义,显示的信息较少
  13. desc t1;
  14. -- 显示表的定义,显示的信息多,格式友好
  15. desc formatted t1;
  16. -- 加载数据
  17. load data local inpath '/home/hadoop/data/t1.dat' into table t1;
  18. -- 查询数据
  19. select * from t1;
  20. -- 查询数据文件
  21. dfs -ls /user/hive/warehouse/mydb.db/t1;
  22. -- 删除表。表和数据同时被删除
  23. drop table t1;
  24. -- 再次查询数据文件,已经被删除

外部表

  1. -- 创建外部表
  2. create external table t2(
  3. id int,
  4. name string,
  5. hobby array<string>,
  6. addr map<string, string>
  7. )
  8. row format delimited
  9. fields terminated by ";"
  10. collection items terminated by ","
  11. map keys terminated by ":";
  12. -- 显示表的定义
  13. desc formatted t2;
  14. -- 加载数据
  15. load data local inpath '/home/hadoop/data/t1.dat' into table t2;
  16. -- 查询数据
  17. select * from t2;
  18. -- 删除表。表删除了,目录仍然存在
  19. drop table t2;
  20. -- 再次查询数据文件,仍然存在

内部表与外部表的转换

  1. -- 创建内部表,加载数据,并检查数据文件和表的定义
  2. create table t1(
  3. id int,
  4. name string,
  5. hobby array<string>,
  6. addr map<string, string>
  7. )
  8. row format delimited
  9. fields terminated by ";"
  10. collection items terminated by ","
  11. map keys terminated by ":";
  12. load data local inpath '/home/hadoop/data/t1.dat' into table t1;
  13. dfs -ls /user/hive/warehouse/mydb.db/t1;
  14. desc formatted t1;
  15. -- 内部表转外部表
  16. alter table t1 set tblproperties('EXTERNAL'='TRUE');
  17. -- 查询表信息,是否转换成功
  18. desc formatted t1;
  19. -- 外部表转内部表。EXTERNAL 大写,false 不区分大小
  20. alter table t1 set tblproperties('EXTERNAL'='FALSE');
  21. -- 查询表信息,是否转换成功
  22. desc formatted t1;

小结


建表时:

  • 如果不指定external关键字,创建的是内部表;
  • 指定external关键字,创建的是外部表;

删表时

  • 删除外部表时,仅删除表的定义,表的数据不受影响
  • 删除内部表时,表的数据和定义同时被删除

外部表的使用场景

  • 想保留数据时使用。生产多用外部表

第 4 节 分区表

Hive在执行查询时,一般会扫描整个表的数据。由于表的数据量大,全表扫描消耗时间长、效率低。而有时候,查询只需要扫描表中的一部分数据即可,Hive引入了分区表的概念,将表的数据存储在不同的子目录中,每一个子目录对应一个分区。只查询部分分区数据时,可避免全表扫描,提高查询效率。在实际中,通常根据时间、地区等信息进行分区。
分区表创建与数据加载

  1. -- 创建表
  2. create table if not exists t3(
  3. id int
  4. ,name string
  5. ,hobby array<string>
  6. ,addr map<String,string>
  7. )
  8. partitioned by (dt string)
  9. row format delimited
  10. fields terminated by ';'
  11. collection items terminated by ','
  12. map keys terminated by ':';
  13. -- 加载数据。
  14. load data local inpath "/home/hadoop/data/t1.dat" into table t3
  15. partition(dt="2020-06-01");
  16. load data local inpath "/home/hadoop/data/t1.dat" into table t3
  17. partition(dt="2020-06-02");

备注:分区字段不是表中已经存在的数据,可以将分区字段看成伪列
查看分区

show partitions t3;

新增分区并设置数据

  1. -- 增加一个分区,不加载数据
  2. alter table t3 add partition(dt='2020-06-03');
  3. -- 增加多个分区,不加载数据
  4. alter table t3
  5. add partition(dt='2020-06-05') partition(dt='2020-06-06');
  6. -- 增加多个分区。准备数据
  7. hdfs dfs -cp /user/hive/warehouse/mydb.db/t3/dt=2020-06-01
  8. /user/hive/warehouse/mydb.db/t3/dt=2020-06-07
  9. hdfs dfs -cp /user/hive/warehouse/mydb.db/t3/dt=2020-06-01
  10. /user/hive/warehouse/mydb.db/t3/dt=2020-06-08
  11. -- 增加多个分区。加载数据
  12. alter table t3 add
  13. partition(dt='2020-06-07') location
  14. '/user/hive/warehouse/mydb.db/t3/dt=2020-06-07'
  15. partition(dt='2020-06-08') location
  16. '/user/hive/warehouse/mydb.db/t3/dt=2020-06-08';
  17. -- 查询数据
  18. select * from t3;

修改分区的hdfs路径

alter table t3 partition(dt='2020-06-01') set location '/user/hive/warehouse/t3/dt=2020-06-03';

删除分区

  1. -- 可以删除一个或多个分区,用逗号隔开
  2. alter table t3 drop partition(dt='2020-06-03'),partition(dt='2020-06-04');

第 5 节 分桶表

当单个的分区或者表的数据量过大,分区不能更细粒度的划分数据,就需要使用分桶技术将数据划分成更细的粒度。将数据按照指定的字段进行分成多个桶中去,即将数
据按照字段进行划分,数据按照字段划分到多个文件当中去。分桶的原理:

  • MR中:key.hashCode % reductTask
  • Hive中:分桶字段.hashCode % 分桶个数
  1. -- 测试数据
  2. 1 java 90
  3. 1 c 78
  4. 1 python 91
  5. 1 hadoop 80
  6. 2 java 75
  7. 2 c 76
  8. 2 python 80
  9. 2 hadoop 93
  10. 3 java 98
  11. 3 c 74
  12. 3 python 89
  13. 3 hadoop 91
  14. 5 java 93
  15. 6 c 76
  16. 7 python 87
  17. 8 hadoop 88
  1. -- 创建分桶表
  2. create table course(
  3. id int,
  4. name string,
  5. score int
  6. )
  7. clustered by (id) into 3 buckets
  8. row format delimited fields terminated by "\t";
  9. -- 创建普通表
  10. create table course_common(
  11. id int,
  12. name string,
  13. score int
  14. )
  15. row format delimited fields terminated by "\t";
  16. -- 普通表加载数据
  17. load data local inpath '/home/hadoop/data/course.dat' into table
  18. course_common;
  19. -- 通过 insert ... select ... 给桶表加载数据
  20. insert into table course select * from course_common;
  21. -- 观察分桶数据。数据按照:(分区字段.hashCode) % (分桶数) 进行分

备注:

  • 分桶规则:分桶字段.hashCode % 分桶数
  • 分桶表加载数据时,使用 insert... select ... 方式进行
  • 网上有资料说要使用分区表需要设置 hive.enforce.bucketing=true,那是Hive1.x 以前的版本;Hive 2.x 中,删除了该参数,始终可以分桶;

第 6 节 修改表 & 删除表

  1. -- 修改表名。rename
  2. alter table course_common
  3. rename to course_common1;
  4. -- 修改列名。change column
  5. alter table course_common1
  6. change column id cid int;
  7. -- 修改字段类型。change column
  8. alter table course_common1
  9. change column cid cid string;
  10. -- The following columns have types incompatible with the
  11. existing columns in their respective positions
  12. -- 修改字段数据类型时,要满足数据类型转换的要求。如int可以转为string,但是string不能转为int
  13. -- 增加字段。add columns
  14. alter table course_common1
  15. add columns (common string);
  16. -- 删除字段:replace columns
  17. -- 这里仅仅只是在元数据中删除了字段,并没有改动hdfs上的数据文件
  18. alter table course_common1
  19. replace columns(
  20. id string, cname string, score int);
  21. -- 删除表
  22. drop table course_common1;

HQL DDL命令小结:
主要对象:数据库、表
表的分类:

  • 内部表。删除表时,同时删除元数据和表数据
  • 外部表。删除表时,仅删除元数据,保留表中数据;生产环境多使用外部表
  • 分区表。按照分区字段将表中的数据放置在不同的目录中,提高SQL查询的性能
  • 分桶表。按照分桶字段,将表中数据分开。 分桶字段.hashCode % 分桶数据

主要命令:create、alter 、drop

第五部分 HQL操作之--数据操作

第 1 节 数据导入

装载数据(Load)
基本语法:

  1. LOAD DATA [LOCAL] INPATH 'filepath'
  2. [OVERWRITE] INTO TABLE tablename [PARTITION (partcol1=val1,partcol2=val2 ...)]

LOCAL:

  • LOAD DATA LOCAL ... 从本地文件系统加载数据到Hive表中。本地文件会拷贝到Hive表指定的位置
  • LOAD DATA ... 从HDFS加载数据到Hive表中。HDFS文件移动到Hive表指定的位置

INPATH:加载数据的路径
OVERWRITE:覆盖表中已有数据;否则表示追加数据
PARTITION:将数据加载到指定的分区
准备工作:

  1. -- 创建表
  2. CREATE TABLE tabA (
  3. id int
  4. ,name string
  5. ,area string
  6. ) ROW FORMAT DELIMITED FIELDS TERMINATED BY ',' ;
  7. 数据文件(~/data/sourceA.txt):
  8. 1,fish1,SZ
  9. 2,fish2,SH
  10. 3,fish3,HZ
  11. 4,fish4,QD
  12. 5,fish5,SR
  13. -- 拷贝文件到 HDFS
  14. hdfs dfs -put sourceA.txt data/

装载数据:

  1. -- 加载本地文件到hive(tabA)
  2. LOAD DATA LOCAL INPATH '/home/hadoop/data/sourceA.txt'
  3. INTO TABLE tabA;
  4. -- 检查本地文件还在
  5. -- 加载hdfs文件到hive(tabA)
  6. LOAD DATA INPATH 'data/sourceA.txt'
  7. INTO TABLE tabA;
  8. -- 检查HDFS文件,已经被转移
  9. -- 加载数据覆盖表中已有数据
  10. LOAD DATA INPATH 'data/sourceA.txt'
  11. OVERWRITE INTO TABLE tabA;
  12. -- 创建表时加载数据
  13. hdfs dfs -mkdir /user/hive/tabB
  14. hdfs dfs -put sourceA.txt /user/hive/tabB
  15. CREATE TABLE tabB (
  16. id INT
  17. ,name string
  18. ,area string
  19. ) ROW FORMAT DELIMITED FIELDS TERMINATED BY ','
  20. Location '/user/hive/tabB';

插入数据(Insert)

  1. -- 创建分区表
  2. CREATE TABLE tabC (
  3. id INT
  4. ,name string
  5. ,area string
  6. )
  7. partitioned by (month string)
  8. ROW FORMAT DELIMITED FIELDS TERMINATED BY ',';
  9. -- 插入数据
  10. insert into table tabC
  11. partition(month='202001')
  12. values (5, 'wangwu', 'BJ'), (4, 'lishi', 'SH'), (3, 'zhangsan',
  13. 'TJ');
  14. -- 插入查询的结果数据
  15. insert into table tabC partition(month='202002')
  16. select id, name, area from tabC where month='202001';
  17. -- 多表(多分区)插入模式
  18. from tabC
  19. insert overwrite table tabC partition(month='202003')
  20. select id, name, area where month='202002'
  21. insert overwrite table tabC partition(month='202004')
  22. select id, name, area where month='202002';

创建表并插入数据(as select)

  1. -- 根据查询结果创建表
  2. create table if not exists tabD
  3. as select * from tabC;

使用import导入数据

  1. import table student2 partition(month='201709')
  2. from '/user/hive/warehouse/export/student';

第 2 节 数据导出

  1. -- 将查询结果导出到本地
  2. insert overwrite local directory '/home/hadoop/data/tabC' select * from tabC;
  3. -- 将查询结果格式化输出到本地
  4. insert overwrite local directory '/home/hadoop/data/tabC2' row format delimited fields terminated by ' '
  5. select * from tabC;
  6. -- 将查询结果导出到HDFS
  7. insert overwrite directory '/user/hadoop/data/tabC3' row format delimited fields terminated by ' ' select * from tabC;
  8. -- dfs 命令导出数据到本地。本质是执行数据文件的拷贝
  9. dfs -get /user/hive/warehouse/mydb.db/tabc/month=202001 /home/hadoop/data/tabC4
  10. -- hive 命令导出数据到本地。执行查询将查询结果重定向到文件
  11. hive -e "select * from tabC" > a.log
  12. -- export 导出数据到HDFS。使用export导出数据时,不仅有数还有表的元数据信息
  13. export table tabC to '/user/hadoop/data/tabC4';
  14. -- export 导出的数据,可以使用 import 命令导入到 Hive 表中
  15. -- 使用 like tname创建的表结构与原表一致。create ... as select ... 结构可能不一致
  16. create table tabE like tabc;
  17. import table tabE from ''/user/hadoop/data/tabC4';
  18. -- 截断表,清空数据。(注意:仅能操作内部表)
  19. truncate table tabE;
  20. -- 以下语句报错,外部表不能执行 truncate 操作
  21. alter table tabC set tblproperties("EXTERNAL"="TRUE");
  22. truncate table tabC;

小结:
数据导入:load data / insert / create table .... as select ..... / import table
数据导出:insert overwrite ... diretory ... / hdfs dfs -get / hive -e "select ..." >a.log / export table ...
Hive的数据导入与导出还可以使用其他工具:Sqoop、DataX等;

第五部分 HQL操作之--DQL命令【重点】

DQL -- Data Query Language 数据查询语言
select语法:

  1. SELECT [ALL | DISTINCT] select_expr, select_expr, ...
  2. FROM table_reference
  3. [WHERE where_condition]
  4. [GROUP BY col_list]
  5. [ORDER BY col_list]
  6. [CLUSTER BY col_list | [DISTRIBUTE BY col_list] [SORT BY
  7. col_list]]
  8. [LIMIT [offset,] rows]

SQL语句书写注意事项:

  • SQL语句对大小写不敏感
  • SQL语句可以写一行(简单SQL)也可以写多行(复杂SQL)
  • 关键字不能缩写,也不能分行
  • 各子句一般要分行
  • 使用缩进格式,提高SQL语句的可读性(重要)

创建表,加载数据

  1. -- 测试数据 /home/hadoop/data/emp.dat
  2. 7369,SMITH,CLERK,7902,2010-12-17,800,,20
  3. 7499,ALLEN,SALESMAN,7698,2011-02-20,1600,300,30
  4. 7521,WARD,SALESMAN,7698,2011-02-22,1250,500,30
  5. 7566,JONES,MANAGER,7839,2011-04-02,2975,,20
  6. 7654,MARTIN,SALESMAN,7698,2011-09-28,1250,1400,30
  7. 7698,BLAKE,MANAGER,7839,2011-05-01,2850,,30
  8. 7782,CLARK,MANAGER,7839,2011-06-09,2450,,10
  9. 7788,SCOTT,ANALYST,7566,2017-07-13,3000,,20
  10. 7839,KING,PRESIDENT,,2011-11-07,5000,,10
  11. 7844,TURNER,SALESMAN,7698,2011-09-08,1500,0,30
  12. 7876,ADAMS,CLERK,7788,2017-07-13,1100,,20
  13. 7900,JAMES,CLERK,7698,2011-12-03,950,,30
  14. 7902,FORD,ANALYST,7566,2011-12-03,3000,,20
  15. 7934,MILLER,CLERK,7782,2012-01-23,1300,,10
  16. -- 建表并加载数据
  17. CREATE TABLE emp (
  18. empno int,
  19. ename string,
  20. job string,
  21. mgr int,
  22. hiredate DATE,
  23. sal int,
  24. comm int,
  25. deptno int
  26. )row format delimited fields terminated by ",";
  27. -- 加载数据
  28. LOAD DATA LOCAL INPATH '/home/hadoop/data/emp.dat'
  29. INTO TABLE emp;

第 1 节 基本查询

  1. -- 省略from子句的查询
  2. select 8*888 ;
  3. select current_date ;
  4. -- 使用列别名
  5. select 8*888 product;
  6. select current_date as currdate;
  7. -- 全表查询
  8. select * from emp;
  9. -- 选择特定列查询
  10. select ename, sal, comm from emp;
  11. -- 使用函数
  12. select count(*) from emp;
  13. -- count(colname) 按字段进行count,不统计NULL
  14. select sum(sal) from emp;
  15. select max(sal) from emp;
  16. select min(sal) from emp;
  17. select avg(sal) from emp;
  18. -- 使用limit子句限制返回的行数
  19. select * from emp limit 3;

第 2 节 where子句
WHERE子句紧随FROM子句,使用WHERE子句,过滤不满足条件的数据;
where 子句中不能使用列的别名;

  1. select * from emp
  2. where sal > 2000;

where子句中会涉及到较多的比较运算 和 逻辑运算;
比较运算符
官方文档:https://cwiki.apache.org/confluence/display/Hive/LanguageManual+UDF

备注:通常情况下NULL参与运算,返回值为NULL;NULL<=>NULL的结果为true
逻辑运算符
就是我们所熟悉的:and、or、not

  1. -- 比较运算符,null参与运算
  2. select null=null;
  3. select null==null;
  4. select null<=>null;
  5. -- 使用 is null 判空
  6. select * from emp where comm is null;
  7. -- 使用 in
  8. select * from emp where deptno in (20, 30);
  9. -- 使用 between ... and ...
  10. select * from emp where sal between 1000 and 2000;
  11. -- 使用 like
  12. select ename, sal from emp where ename like '%L%';
  13. -- 使用 rlike。正则表达式,名字以A或S开头
  14. select ename, sal from emp where ename rlike '^(A|S).*';

第 3 节 group by子句
GROUP BY语句通常与聚组函数一起使用,按照一个或多个列对数据进行分组,对每个组进行聚合操作。

  1. -- 计算emp表每个部门的平均工资
  2. select deptno, avg(sal)
  3. from emp
  4. group by deptno;
  5. -- 计算emp每个部门中每个岗位的最高薪水
  6. select deptno, job, max(sal)
  7. from emp
  8. group by deptno, job;
  • where子句针对表中的数据发挥作用;having针对查询结果(聚组以后的结果)发挥作用
  • where子句不能有分组函数;having子句可以有分组函数
  • having只用于group by分组统计之后
  1. -- 求每个部门的平均薪水大于2000的部门
  2. select deptno, avg(sal)
  3. from emp
  4. group by deptno
  5. having avg(sal) > 2000;

第 4 节 表连接

Hive支持通常的SQL JOIN语句。默认情况下,仅支持等值连接,不支持非等值连接。
JOIN 语句中经常会使用表的别名。使用别名可以简化SQL语句的编写,使用表名前缀可以提高SQL的解析效率。
连接查询操作分为两大类:内连接和外连接,而外连接可进一步细分为三种类型:

  1. 1. 内连接: [inner] join
  2. 2. 外连接 (outer join)
  3. - 左外连接。 left [outer] join,左表的数据全部显示
  4. - 右外连接。 right [outer] join,右表的数据全部显示
  5. - 全外连接。 full [outer] join,两张表的数据都显示


案例演示

  1. -- 准备数据
  2. u1.txt数据:
  3. 1,a
  4. 2,b
  5. 3,c
  6. 4,d
  7. 5,e
  8. 6,f
  9. u2.txt数据:
  10. 4,d
  11. 5,e
  12. 6,f
  13. 7,g
  14. 8,h
  15. 9,i
  16. create table if not exists u1(
  17. id int,
  18. name string)
  19. row format delimited fields terminated by ',';
  20. create table if not exists u2(
  21. id int,
  22. name string)
  23. row format delimited fields terminated by ',';
  24. load data local inpath '/home/hadoop/data/u1.txt' into table u1;
  25. load data local inpath '/home/hadoop/data/u2.txt' into table u2;
  1. -- 内连接
  2. select * from u1 join u2 on u1.id = u2.id;
  3. -- 左外连接
  4. select * from u1 left join u2 on u1.id = u2.id;
  5. -- 右外连接
  6. select * from u1 right join u2 on u1.id = u2.id;
  7. -- 全外连接
  8. select * from u1 full join u2 on u1.id = u2.id;

多表连接
连接 n张表,至少需要 n-1 个连接条件。例如:连接四张表,至少需要三个连接条件。

多表连接查询,查询老师对应的课程,以及对应的分数,对应的学生:

  1. select *
  2. from techer t left join course c on t.t_id = c.t_id
  3. left join score s on s.c_id = c.c_id
  4. left join student stu on s.s_id = stu.s_id;

Hive总是按照从左到右的顺序执行,Hive会对每对 JOIN 连接对象启动一个MapReduce 任务。
上面的例子中会首先启动一个 MapReduce job 对表 t 和表 c 进行连接操作;然后再启动一个 MapReduce job 将第一个 MapReduce job 的输出和表 s 进行连接操作;然后再继续直到全部操作;

第 5 节 排序子句【重点】

全局排序(order by)

  • order by 子句出现在select语句的结尾;
  • order by子句对最终的结果进行排序;
  • 默认使用升序(ASC);可以使用DESC,跟在字段名之后表示降序;
  • ORDER BY执行全局排序,只有一个reduce;
  1. -- 普通排序
  2. select * from emp order by deptno;
  3. -- 按别名排序
  4. select empno, ename, job, mgr, sal + nvl(comm, 0) salcomm, deptno
  5. from emp
  6. order by salcomm desc;
  7. -- 多列排序
  8. select empno, ename, job, mgr, sal + nvl(comm, 0) salcomm, deptno
  9. from emp
  10. order by deptno, salcomm desc;
  11. -- 排序字段要出现在select子句中。以下语句无法执行(因为select子句中缺少
  12. deptno):
  13. select empno, ename, job, mgr, sal + nvl(comm, 0) salcomm
  14. from emp
  15. order by deptno, salcomm desc;

每个MR内部排序(sort by)
对于大规模数据而言order by效率低;
在很多业务场景,我们并不需要全局有序的数据,此时可以使用sort by;
sort by为每个reduce产生一个排序文件,在reduce内部进行排序,得到局部有序的结果;

  1. -- 设置reduce个数
  2. set mapreduce.job.reduces=2;
  3. -- 按照工资降序查看员工信息
  4. select * from emp sort by sal desc;
  5. -- 将查询结果导入到文件中(按照工资降序)。生成两个输出文件,每个文件内部数据按工资降序排列
  6. insert overwrite local directory '/home/hadoop/output/sortsal'
  7. select * from emp sort by sal desc;

分区排序(distribute by)
distribute by 将特定的行发送到特定的reducer中,便于后继的聚合 与 排序操作;
distribute by 类似于MR中的分区操作,可以结合sort by操作,使分区数据有序;
distribute by 要写在sort by之前;

  1. -- 启动2个reducer task;先按 deptno 分区,在分区内按 sal+comm 排序
  2. set mapreduce.job.reduces=2;
  3. -- 将结果输出到文件,观察输出结果
  4. insert overwrite local directory '/home/hadoop/output/distBy'
  5. select empno, ename, job, deptno, sal + nvl(comm, 0) salcomm
  6. from emp
  7. distribute by deptno
  8. sort by salcomm desc;
  9. -- 上例中,数据被分到了统一区,看不出分区的结果
  10. -- 将数据分到3个区中,每个分区都有数据
  11. set mapreduce.job.reduces=3;
  12. insert overwrite local directory '/home/hadoop/output/distBy1'
  13. select empno, ename, job, deptno, sal + nvl(comm, 0) salcomm
  14. from emp
  15. distribute by deptno
  16. sort by salcomm desc;

Cluster By
当distribute by 与 sort by是同一个字段时,可使用cluster by简化语法;
cluster by 只能是升序,不能指定排序规则;

  1. -- 语法上是等价的
  2. select * from emp distribute by deptno sort by deptno;
  3. select * from emp cluster by deptno;

排序小结:

  • order by。执行全局排序,效率低。生产环境中慎用
  • sort by。使数据局部有序(在reduce内部有序)
  • distribute by。按照指定的条件将数据分组,常与sort by联用,使数据局部有序
  • cluster by。当distribute by 与 sort by是同一个字段时,可使用cluster by简化语法

第六部分 函数

Hive内置函数:https://cwiki.apache.org/confluence/display/Hive/LanguageManual+UDF#LanguageManualUDF-Built-inFunctions

第 1 节 系统内置函数

查看系统函数

  1. -- 查看系统自带函数
  2. show functions;
  3. -- 显示自带函数的用法
  4. desc function upper;
  5. desc function extended upper;

日期函数【重要】

  1. -- 当前前日期
  2. select current_date;
  3. select unix_timestamp();
  4. -- 建议使用current_timestamp,有没有括号都可以
  5. select current_timestamp();
  6. -- 时间戳转日期
  7. select from_unixtime(1505456567);
  8. select from_unixtime(1505456567, 'yyyyMMdd');
  9. select from_unixtime(1505456567, 'yyyy-MM-dd HH:mm:ss');
  10. -- 日期转时间戳
  11. select unix_timestamp('2019-09-15 14:23:00');
  12. -- 计算时间差
  13. select datediff('2020-04-18','2019-11-21');
  14. select datediff('2019-11-21', '2020-04-18');
  15. -- 查询当月第几天
  16. select dayofmonth(current_date);
  17. -- 计算月末:
  18. select last_day(current_date);
  19. -- 当月第1天:
  20. select date_sub(current_date, dayofmonth(current_date)-1)
  21. -- 下个月第1天:
  22. select add_months(date_sub(current_date,
  23. dayofmonth(current_date)-1), 1)
  24. -- 字符串转时间(字符串必须为:yyyy-MM-dd格式)
  25. select to_date('2020-01-01');
  26. select to_date('2020-01-01 12:12:12');
  27. -- 日期、时间戳、字符串类型格式化输出标准时间格式
  28. select date_format(current_timestamp(), 'yyyy-MM-dd HH:mm:ss');
  29. select date_format(current_date(), 'yyyyMMdd');
  30. select date_format('2020-06-01', 'yyyy-MM-dd HH:mm:ss');
  31. -- 计算emp表中,每个人的工龄
  32. select *, round(datediff(current_date, hiredate)/365,1)
  33. workingyears from emp;

字符串函数

  1. -- 转小写。lower
  2. select lower("HELLO WORLD");
  3. -- 转大写。upper
  4. select lower(ename), ename from emp;
  5. -- 求字符串长度。length
  6. select length(ename), ename from emp;
  7. -- 字符串拼接。 concat / ||
  8. select empno || " " ||ename idname from emp;
  9. select concat(empno, " " ,ename) idname from emp;
  10. -- 指定分隔符。concat_ws(separator, [string | array(string)]+)
  11. SELECT concat_ws('.', 'www', array('lagou', 'com'));
  12. select concat_ws(" ", ename, job) from emp;
  13. -- 求子串。substr
  14. SELECT substr('www.lagou.com', 5);
  15. SELECT substr('www.lagou.com', -5);
  16. SELECT substr('www.lagou.com', 5, 5);
  17. -- 字符串切分。split,注意 '.' 要转义
  18. select split("www.lagou.com", "\\.");

数学函数

  1. -- 四舍五入。round
  2. select round(314.15926);
  3. select round(314.15926, 2);
  4. select round(314.15926, -2);
  5. -- 向上取整。ceil
  6. select ceil(3.1415926);
  7. -- 向下取整。floor
  8. select floor(3.1415926);
  9. -- 其他数学函数包括:绝对值、平方、开方、对数运算、三角运算等

条件函数【重要】

  1. -- if (boolean testCondition, T valueTrue, T valueFalseOrNull)
  2. select sal, if (sal<1500, 1, if (sal < 3000, 2, 3)) from emp;
  3. -- CASE WHEN a THEN b [WHEN c THEN d]* [ELSE e] END
  4. -- 将emp表的员工工资等级分类:0-15001500-30003000以上
  5. select sal, if (sal<=1500, 1, if (sal <= 3000, 2, 3)) from emp;
  6. -- CASE WHEN a THEN b [WHEN c THEN d]* [ELSE e] END
  7. -- 复杂条件用 case when 更直观
  8. select sal, case when sal<=1500 then 1
  9. when sal<=3000 then 2
  10. else 3 end sallevel
  11. from emp;
  12. -- 以下语句等价
  13. select ename, deptno,
  14. case deptno when 10 then 'accounting'
  15. when 20 then 'research'
  16. when 30 then 'sales'
  17. else 'unknown' end deptname
  18. from emp;
  19. select ename, deptno,
  20. case when deptno=10 then 'accounting'
  21. when deptno=20 then 'research'
  22. when deptno=30 then 'sales'
  23. else 'unknown' end deptname
  24. from emp;
  25. -- COALESCE(T v1, T v2, ...)。返回参数中的第一个非空值;如果所有值都为
  26. NULL,那么返回NULL
  27. select sal, coalesce(comm, 0) from emp;
  28. -- isnull(a) isnotnull(a)
  29. select * from emp where isnull(comm);
  30. select * from emp where isnotnull(comm);
  31. -- nvl(T value, T default_value)
  32. select empno, ename, job, mgr, hiredate, deptno, sal +
  33. nvl(comm,0) sumsal
  34. from emp;
  35. -- nullif(x, y) 相等为空,否则为a
  36. SELECT nullif("b", "b"), nullif("b", "a");

UDTF函数【重要】
UDTF : User Defined Table-Generating Functions。用户定义表生成函数,一行输入,多行输出。

  1. -- explode,炸裂函数
  2. -- 就是将一行中复杂的 array 或者 map 结构拆分成多行
  3. select explode(array('A','B','C')) as col;
  4. select explode(map('a', 8, 'b', 88, 'c', 888));
  5. -- UDTF's are not supported outside the SELECT clause, nor nested
  6. in expressions
  7. -- SELECT pageid, explode(adid_list) AS myCol... is not supported
  8. -- SELECT explode(explode(adid_list)) AS myCol... is not supported
  9. -- lateral view 常与 表生成函数explode结合使用
  10. -- lateral view 语法:
  11. lateralView: LATERAL VIEW udtf(expression) tableAlias AS
  12. columnAlias (',' columnAlias)*
  13. fromClause: FROM baseTable (lateralView)*
  14. -- lateral view 的基本使用
  15. with t1 as (
  16. select 'OK' cola, split('www.lagou.com', '\\.') colb
  17. )
  18. select cola, colc
  19. from t1
  20. lateral view explode(colb) t2 as colc;

UDTF 案例1:

  1. -- 数据(uid tags):
  2. 1 1,2,3
  3. 2 2,3
  4. 3 1,2
  5. --编写sql,实现如下结果:
  6. 1 1
  7. 1 2
  8. 1 3
  9. 2 2
  10. 2 3
  11. 3 1
  12. 3 2
  13. -- 建表加载数据
  14. create table market(
  15. uid int,
  16. tags string
  17. )
  18. row format delimited fields terminated by '\t';
  19. load data local inpath '/hivedata/market.txt' into table market;
  20. -- SQL
  21. select uid, tag
  22. from market
  23. lateral view explode(split(tags, ",")) t2 as tag;

UDTF 案例2:

  1. -- 数据准备
  2. lisi|Chinese:90,Math:80,English:70
  3. wangwu|Chinese:88,Math:90,English:96
  4. maliu|Chinese:99,Math:65,English:60
  5. -- 创建表
  6. create table studscore(
  7. name string
  8. ,score map<String,string>)
  9. row format delimited
  10. fields terminated by '|'
  11. collection items terminated by ','
  12. map keys terminated by ':';
  13. -- 加载数据
  14. load data local inpath '/home/hadoop/data/score.dat' overwrite
  15. into table studscore;
  16. -- 需求:找到每个学员的最好成绩
  17. -- 第一步,使用 explode 函数将map结构拆分为多行
  18. select explode(score) as (subject, socre) from studscore;
  19. --但是这里缺少了学员姓名,加上学员姓名后出错。下面的语句有是错的
  20. select name, explode(score) as (subject, socre) from studscore;
  21. -- 第二步:explode常与 lateral view 函数联用,这两个函数结合在一起能关联其
  22. 他字段
  23. select name, subject, score1 as score from studscore
  24. lateral view explode(score) t1 as subject, score1;
  25. -- 第三步:找到每个学员的最好成绩
  26. select name, max(mark) maxscore
  27. from (select name, subject, mark
  28. from studscore lateral view explode(score) t1 as
  29. subject, mark) t1
  30. group by name;
  31. with tmp as (
  32. select name, subject, mark
  33. from studscore lateral view explode(score) t1 as subject, mark
  34. )
  35. select name, max(mark) maxscore
  36. from tmp
  37. group by name;

小结:

  • 将一行数据转换成多行数据,可以用于array和map类型的数据;
  • lateral view 与 explode 联用,解决 UDTF 不能添加额外列的问题

第 2 节 窗口函数【重要】


窗口函数又名开窗函数,属于分析函数的一种。用于解决复杂报表统计需求的功能强大的函数,很多场景都需要用到。窗口函数用于计算基于组的某种聚合值,它和聚合
函数的不同之处是:对于每个组返回多行,而聚合函数对于每个组只返回一行。窗口函数指定了分析函数工作的数据窗口大小,这个数据窗口大小可能会随着行的变化而变化。
over 关键字
使用窗口函数之前一般要要通过over()进行开窗

  1. -- 查询emp表工资总和
  2. select sum(sal) from emp;
  3. -- 不使用窗口函数,有语法错误
  4. select ename, sal, sum(sal) salsum from emp;
  5. -- 使用窗口函数,查询员工姓名、薪水、薪水总和
  6. select ename, sal, sum(sal) over() salsum,
  7. concat(round(sal / sum(sal) over()*100, 1) || '%')
  8. ratiosal
  9. from emp;

注意:窗口函数是针对每一行数据的;如果over中没有参数,默认的是全部结果集;

partition by子句
在over窗口中进行分区,对某一列进行分区统计,窗口的大小就是分区的大小

  1. -- 查询员工姓名、薪水、部门薪水总和
  2. select ename, sal, sum(sal) over(partition by deptno) salsum from emp;

order by 子句
order by 子句对输入的数据进行排序

  1. -- 增加了order by子句;sum:从分组的第一行到当前行求和
  2. select ename, sal, deptno, sum(sal) over(partition by deptno order by sal) salsum
  3. from emp;

Window子句

rows between ... and ...

如果要对窗口的结果做更细粒度的划分,使用window子句,有如下的几个选项:!clear

  • unbounded preceding。组内第一行数据
  • n preceding。组内当前行的前n行数据
  • current row。当前行数据
  • n following。组内当前行的后n行数据
  • unbounded following。组内最后一行数据

  1. -- rows between ... and ... 子句
  2. -- 等价。组内,第一行到当前行的和
  3. select ename, sal, deptno,
  4. sum(sal) over(partition by deptno order by ename) from
  5. emp;
  6. select ename, sal, deptno,
  7. sum(sal) over(partition by deptno order by ename
  8. rows between unbounded preceding and current
  9. row
  10. )
  11. from emp;
  12. -- 组内,第一行到最后一行的和
  13. select ename, sal, deptno,
  14. sum(sal) over(partition by deptno order by ename
  15. rows between unbounded preceding and
  16. unbounded following
  17. )
  18. from emp;
  19. -- 组内,前一行 + 当前行 +后一行
  20. select ename, sal, deptno,
  21. sum(sal) over(partition by deptno order by ename
  22. rows between 1 preceding and 1 following
  23. )
  24. from emp;

排名函数
都是从1开始,生成数据项在分组中的排名。

  • row_number()。排名顺序增加不会重复;如1、2、3、4、... ...
  • RANK()。 排名相等会在名次中留下空位;如1、2、2、4、5、... ...
  • DENSE_RANK()。 排名相等会在名次中不会留下空位 ;如1、2、2、3、4、... ...
  1. -- row_number / rank / dense_rank
  2. 100 1 1 1
  3. 100 2 1 1
  4. 100 3 1 1
  5. 99 4 4 2
  6. 98 5 5 3
  7. 98 6 5 3
  8. 97 7 7 4
  9. -- 数据准备
  10. class1 s01 100
  11. class1 s03 100
  12. class1 s05 100
  13. class1 s07 99
  14. class1 s09 98
  15. class1 s02 98
  16. class1 s04 97
  17. class2 s21 100
  18. class2 s24 99
  19. class2 s27 99
  20. class2 s22 98
  21. class2 s25 98
  22. class2 s28 97
  23. class2 s26 96
  24. -- 创建表加载数据
  25. create table t2(
  26. cname string,
  27. sname string,
  28. score int
  29. ) row format delimited fields terminated by '\t';
  30. load data local inpath '/home/hadoop/data/t2.dat' into table t2;
  31. -- 按照班级,使用3种方式对成绩进行排名
  32. select cname, sname, score,
  33. row_number() over (partition by cname order by score desc)
  34. rank1,
  35. rank() over (partition by cname order by score desc)
  36. rank2,
  37. dense_rank() over (partition by cname order by score desc)
  38. rank3
  39. from t2;
  40. -- 求每个班级前3名的学员--前3名的定义是什么--假设使用dense_rank
  41. select cname, sname, score, rank
  42. from (select cname, sname, score,
  43. dense_rank() over (partition by cname order by
  44. score desc) rank
  45. from t2) tmp
  46. where rank <= 3;

序列函数

  • lag。返回当前数据行的上一行数据
  • lead。返回当前数据行的下一行数据
  • first_value。取分组内排序后,截止到当前行,第一个值
  • last_value。分组内排序后,截止到当前行,最后一个值
  • ntile。将分组的数据按照顺序切分成n片,返回当前切片值
  1. -- 测试数据 userpv.dat。cid ctime pv
  2. cookie1,2019-04-10,1
  3. cookie1,2019-04-11,5
  4. cookie1,2019-04-12,7
  5. cookie1,2019-04-13,3
  6. cookie1,2019-04-14,2
  7. cookie1,2019-04-15,4
  8. cookie1,2019-04-16,4
  9. cookie2,2019-04-10,2
  10. cookie2,2019-04-11,3
  11. cookie2,2019-04-12,5
  12. cookie2,2019-04-13,6
  13. cookie2,2019-04-14,3
  14. cookie2,2019-04-15,9
  15. cookie2,2019-04-16,7
  16. -- 建表语句
  17. create table userpv(
  18. cid string,
  19. ctime date,
  20. pv int
  21. )
  22. row format delimited fields terminated by ",";
  23. -- 加载数据
  24. Load data local inpath '/home/hadoop/data/userpv.dat' into table
  25. userpv;
  26. -- lag。返回当前数据行的上一行数据
  27. -- lead。功能上与lag类似
  28. select cid, ctime, pv,
  29. lag(pv) over(partition by cid order by ctime) lagpv,
  30. lead(pv) over(partition by cid order by ctime) leadpv
  31. from userpv;
  32. -- first_value / last_value
  33. select cid, ctime, pv,
  34. first_value(pv) over (partition by cid order by ctime rows
  35. between unbounded preceding and unbounded following) as firstpv,
  36. last_value(pv) over (partition by cid order by ctime rows
  37. between unbounded preceding and unbounded following) as lastpv
  38. from userpv;
  39. -- ntile。按照cid进行分组,每组数据分成2
  40. select cid, ctime, pv,
  41. ntile(2) over(partition by cid order by ctime) ntile
  42. from userpv;

SQL面试题

1、连续7天登录的用户

  1. -- 数据。uid dt status(1 正常登录,0 异常)
  2. 1 2019-07-11 1
  3. 1 2019-07-12 1
  4. 1 2019-07-13 1
  5. 1 2019-07-14 1
  6. 1 2019-07-15 1
  7. 1 2019-07-16 1
  8. 1 2019-07-17 1
  9. 1 2019-07-18 1
  10. 2 2019-07-11 1
  11. 2 2019-07-12 1
  12. 2 2019-07-13 0
  13. 2 2019-07-14 1
  14. 2 2019-07-15 1
  15. 2 2019-07-16 0
  16. 2 2019-07-17 1
  17. 2 2019-07-18 0
  18. 3 2019-07-11 1
  19. 3 2019-07-12 1
  20. 3 2019-07-13 1
  21. 3 2019-07-14 0
  22. 3 2019-07-15 1
  23. 3 2019-07-16 1
  24. 3 2019-07-17 1
  25. 3 2019-07-18 1
  26. -- 建表语句
  27. create table ulogin(
  28. uid int,
  29. dt date,
  30. status int
  31. )
  32. row format delimited fields terminated by ' ';
  33. -- 加载数据
  34. load data local inpath '/home/hadoop/data/ulogin.dat' into table
  35. ulogin;
  36. -- 连续值的求解,面试中常见的问题。这也是同一类,基本都可按照以下思路进行
  37. -- 1、使用 row_number 在组内给数据编号(rownum)
  38. -- 2、某个值 - rownum = gid,得到结果可以作为后面分组计算的依据
  39. -- 3、根据求得的gid,作为分组条件,求最终结果
  40. select uid, dt,
  41. date_sub(dt, row_number() over (partition by uid order by
  42. dt)) gid
  43. from ulogin
  44. where status=1;
  45. select uid, count(*) countlogin
  46. from (select uid, dt,
  47. date_sub(dt, row_number() over (partition by uid
  48. order by dt)) gid
  49. from ulogin
  50. where status=1) t1
  51. group by uid, gid
  52. having countlogin >= 7;

2、编写sql语句实现每班前三名,分数一样并列,同时求出前三名按名次排序的分差

  1. -- 数据。sid class score
  2. 1 1901 90
  3. 2 1901 90
  4. 3 1901 83
  5. 4 1901 60
  6. 5 1902 66
  7. 6 1902 23
  8. 7 1902 99
  9. 8 1902 67
  10. 9 1902 87
  11. -- 待求结果数据如下:
  12. class score rank lagscore
  13. 1901 90 1 0
  14. 1901 90 1 0
  15. 1901 83 2 -7
  16. 1901 60 3 -23
  17. 1902 99 1 0
  18. 1902 87 2 -12
  19. 1902 67 3 -20
  20. -- 建表语句
  21. create table stu(
  22. sno int,
  23. class string,
  24. score int
  25. )row format delimited fields terminated by ' ';
  26. -- 加载数据
  27. load data local inpath '/home/hadoop/data/stu.dat' into table
  28. stu;
  29. -- 求解思路:
  30. -- 1、上排名函数,分数一样并列,所以用dense_rank
  31. -- 2、将上一行数据下移,相减即得到分数差
  32. -- 3、处理 NULL
  33. with tmp as (
  34. select sno, class, score,
  35. dense_rank() over (partition by class order by score desc)
  36. as rank
  37. from stu
  38. )
  39. select class, score, rank,
  40. nvl(score - lag(score) over (partition by class order by
  41. score desc), 0) lagscore
  42. from tmp
  43. where rank<=3;

3、行 <=> 列

  1. -- 数据:id course
  2. 1 java
  3. 1 hadoop
  4. 1 hive
  5. 1 hbase
  6. 2 java
  7. 2 hive
  8. 2 spark
  9. 2 flink
  10. 3 java
  11. 3 hadoop
  12. 3 hive
  13. 3 kafka
  14. -- 建表加载数据
  15. create table rowline1(
  16. id string,
  17. course string
  18. )row format delimited fields terminated by ' ';
  19. load data local inpath '/root/data/data1.dat' into table
  20. rowline1;
  21. -- 编写sql,得到结果如下(1表示选修,0表示未选修)
  22. id java hadoop hive hbase spark flink kafka
  23. 1 1 1 1 1 0 0 0
  24. 2 1 0 1 0 1 1 0
  25. 3 1 1 1 0 0 0 1
  26. -- 使用case whengroup by + sum
  27. select id,
  28. sum(case when course="java" then 1 else 0 end) as java,
  29. sum(case when course="hadoop" then 1 else 0 end) as hadoop,
  30. sum(case when course="hive" then 1 else 0 end) as hive,
  31. sum(case when course="hbase" then 1 else 0 end) as hbase,
  32. sum(case when course="spark" then 1 else 0 end) as spark,
  33. sum(case when course="flink" then 1 else 0 end) as flink,
  34. sum(case when course="kafka" then 1 else 0 end) as kafka
  35. from rowline1
  36. group by id;
  1. -- 数据。id1 id2 flag
  2. a b 2
  3. a b 1
  4. a b 3
  5. c d 6
  6. c d 8
  7. c d 8
  8. -- 编写sql实现如下结果
  9. id1 id2 flag
  10. a b 2|1|3
  11. c d 6|8
  12. -- 创建表 & 加载数据
  13. create table rowline2(
  14. id1 string,
  15. id2 string,
  16. flag int
  17. ) row format delimited fields terminated by ' ';
  18. load data local inpath '/root/data/data2.dat' into table
  19. rowline2;
  1. -- 第一步 将元素聚拢
  2. select id1, id2, collect_set(flag) flag from rowline2 group by
  3. id1, id2;
  4. select id1, id2, collect_list(flag) flag from rowline2 group by
  5. id1, id2;
  6. select id1, id2, sort_array(collect_set(flag)) flag from rowline2
  7. group by id1, id2;
  8. -- 第二步 将元素连接在一起
  9. select id1, id2, concat_ws("|", collect_set(flag)) flag
  10. from rowline2
  11. group by id1, id2;
  12. -- 这里报错,CONCAT_WS must be "string or array<string>"。加一个类型转
  13. 换即可
  14. select id1, id2, concat_ws("|", collect_set(cast (flag as
  15. string))) flag
  16. from rowline2
  17. group by id1, id2;
  18. -- 创建表 rowline3
  19. create table rowline3 as
  20. select id1, id2, concat_ws("|", collect_set(cast (flag as
  21. string))) flag
  22. from rowline2
  23. group by id1, id2;
  24. -- 第一步:将复杂的数据展开
  25. select explode(split(flag, "\\|")) flat from rowline3;
  26. -- 第二步:lateral view 后与其他字段关联
  27. select id1, id2, newflag
  28. from rowline3 lateral view explode(split(flag, "\\|")) t1 as
  29. newflag;
  30. lateralView: LATERAL VIEW udtf(expression) tableAlias AS
  31. columnAlias (',' columnAlias)*
  32. fromClause: FROM baseTable (lateralView)*
  1. 小结:
  2. case when + sum + group by
  3. collect_set、collect_list、concat_ws
  4. sort_array
  5. explode + lateral view

第 3 节 自定义函数

当 Hive 提供的内置函数无法满足实际的业务处理需要时,可以考虑使用用户自定义函数进行扩展。用户自定义函数分为以下三类:

  • UDF(User Defined Function)。用户自定义函数,一进一出
  • UDAF(User Defined Aggregation Function)。用户自定义聚集函数,多进一出;类似于:count/max/min
  • UDTF(User Defined Table-Generating Functions)。用户自定义表生成函数,一进多出;类似于:explode

UDF开发:

  • 继承org.apache.hadoop.hive.ql.exec.UDF
  • 需要实现evaluate函数;evaluate函数支持重载
  • UDF必须要有返回类型,可以返回null,但是返回类型不能为void

UDF开发步骤

  • 创建maven java 工程,添加依赖
  • 开发java类继承UDF,实现evaluate 方法
  • 将项目打包上传服务器
  • 添加开发的jar包
  • 设置函数与自定义函数关联
  • 使用自定义函数

需求:扩展系统 nvl 函数功能:

  1. nvl(ename, "OK"): ename==null => 返回第二个参数
  2. nvl(ename, "OK"): ename==null or ename=="" or ename==" " => 返回第二个参数

1、创建maven java 工程,添加依赖

  1. <!-- pom.xml 文件 -->
  2. <dependencies>
  3. <dependency>
  4. <groupId>org.apache.hive</groupId>
  5. <artifactId>hive-exec</artifactId>
  6. <version>2.3.7</version>
  7. </dependency>
  8. </dependencies>

2、开发java类继承UDF,实现evaluate 方法

  1. package cn.lagou.hive.udf;
  2. import org.apache.hadoop.hive.ql.exec.UDF;
  3. public class nvl extends UDF {
  4. public Text evaluate(final Text t, final Text x) {
  5. if (t == null || t.toString().trim().length()==0) {
  6. return x;
  7. }
  8. return t;
  9. }
  10. }

3、将项目打包上传服务器
4、添加开发的jar包(在Hive命令行中)

add jar /home/hadoop/hiveudf.jar;

5、创建临时函数。指定类名一定要完整的路径,即包名加类名

create temporary function mynvl as "cn.lagou.hive.udf.nvl";

6、执行查询

  1. -- 基本功能还有
  2. select mynvl(comm, 0) from mydb.emp;
  3. -- 测试扩充的功能
  4. select mynvl("", "OK");
  5. select mynvl(" ", "OK");

7、退出Hive命令行,再进入Hive命令行。执行步骤6的测试,发现函数失效。
备注:创建临时函数每次进入Hive命令行时,都必须执行以下语句,很不方便:

  1. add jar /home/hadoop/hiveudf.jar;
  2. create temporary function mynvl as "cn.lagou.hive.udf.nvl";

可创建永久函数:
1、将jar上传HDFS
2、在Hive命令行中创建永久函数

  1. create function mynvl1 as 'cn.lagou.hive.udf.nvl' using jar 'hdfs:/user/hadoop/jar/hiveudf.jar';
  2. -- 查询所有的函数,发现 mynvl1 在列表中
  3. show functions;

3、退出Hive,再进入,执行测试

  1. -- 基本功能还有
  2. select mynvl(comm, 0) from mydb.emp;
  3. -- 测试扩充的功能
  4. select mynvl("", "OK");
  5. select mynvl(" ", "OK");

4、删除永久函数,并检查

  1. drop function mynvl1;
  2. show functions;

第七部分 HQL操作之--DML命令


数据操纵语言DML(Data Manipulation Language),DML主要有三种形式:插入(INSERT)、删除(DELETE)、更新(UPDATE)。
事务(transaction)是一组单元化操作,这些操作要么都执行,要么都不执行,是一个不可分割的工作单元。
事务具有的四个要素:原子性(Atomicity)、一致性(Consistency)、隔离性(Isolation)、持久性(Durability),这四个基本要素通常称为ACID特性。

  • 原子性。一个事务是一个不可再分割的工作单位,事务中的所有操作要么都发生,要么都不发生。
  • 一致性。事务的一致性是指事务的执行不能破坏数据库数据的完整性和一致性,一个事务在执行之前和执行之后,数据库都必须处于一致性状态。
  • 隔离性。在并发环境中,并发的事务是相互隔离的,一个事务的执行不能被其他事务干扰。即不同的事务并发操纵相同的数据时,每个事务都有各自完整的数据空间,即一个事务内部的操作及使用的数据对其他并发事务是隔离的,并发执行的各个事务之间不能互相干扰。
  • 持久性。事务一旦提交,它对数据库中数据的改变就应该是永久性的。

第 1 节 Hive 事务

Hive从0.14版本开始支持事务 和 行级更新,但缺省是不支持的,需要一些附加的配置。要想支持行级insert、update、delete,需要配置Hive支持事务。

Hive事务的限制:

  • Hive提供行级别的ACID语义
  • BEGIN、COMMIT、ROLLBACK 暂时不支持,所有操作自动提交
  • 目前只支持 ORC 的文件格式
  • 默认事务是关闭的,需要设置开启
  • 要是使用事务特性,表必须是分桶的
  • 只能使用内部表
  • 如果一个表用于ACID写入(INSERT、UPDATE、DELETE),必须在表中设置表属性 : "transactional=true"
  • 必须使用事务管理器 org.apache.hadoop.hive.ql.lockmgr.DbTxnManager
  • 目前支持快照级别的隔离。就是当一次数据查询时,会提供一个数据一致性的快照
  • LOAD DATA语句目前在事务表中暂时不支持

HDFS是不支持文件的修改;并且当有数据追加到文件,HDFS不对读数据的用户提供一致性的。为了在HDFS上支持数据的更新:

  • 表和分区的数据都被存在基本文件中(base files)
  • 新的记录和更新,删除都存在增量文件中(delta files)
  • 一个事务操作创建一系列的增量文件
  • 在读取的时候,将基础文件和修改,删除合并,最后返回给查询

第 2 节 Hive 事务操作示例

  1. -- 这些参数也可以设置在hive-site.xml中
  2. SET hive.support.concurrency = true;
  3. -- Hive 0.x and 1.x only
  4. SET hive.enforce.bucketing = true;
  5. SET hive.exec.dynamic.partition.mode = nonstrict;
  6. SET hive.txn.manager =
  7. org.apache.hadoop.hive.ql.lockmgr.DbTxnManager;
  8. -- 创建表用于更新。满足条件:内部表、ORC格式、分桶、设置表属性
  9. create table zxz_data(
  10. name string,
  11. nid int,
  12. phone string,
  13. ntime date)
  14. clustered by(nid) into 5 buckets
  15. stored as orc
  16. tblproperties('transactional'='true');
  17. -- 创建临时表,用于向分桶表插入数据
  18. create table temp1(
  19. name string,
  20. nid int,
  21. phone string,
  22. ntime date)
  23. row format delimited
  24. fields terminated by ",";
  25. -- 数据
  26. name1,1,010-83596208,2020-01-01
  27. name2,2,027-63277201,2020-01-02
  28. name3,3,010-83596208,2020-01-03
  29. name4,4,010-83596208,2020-01-04
  30. name5,5,010-83596208,2020-01-05
  31. -- 向临时表加载数据;向事务表中加载数据
  32. load data local inpath '/home/hadoop/data/zxz_data.txt' overwrite
  33. into table temp1;
  34. insert into table zxz_data select * from temp1;
  35. -- 检查数据和文件
  36. select * from zxz_data;
  37. dfs -ls /user/hive/warehouse/mydb.db/zxz_data ;
  38. -- DML 操作
  39. delete from zxz_data where nid = 3;
  40. dfs -ls /user/hive/warehouse/mydb.db/zxz_data ;
  41. insert into zxz_data values ("name3", 3, "010-83596208",
  42. current_date); -- 不支持
  43. insert into zxz_data values ("name3", 3, "010-83596208", "2020-
  44. 06-01"); -- 执行
  45. insert into zxz_data select "name3", 3, "010-83596208",
  46. current_date;
  47. dfs -ls /user/hive/warehouse/mydb.db/zxz_data ;
  48. insert into zxz_data values
  49. ("name6", 6, "010-83596208", "2020-06-02"),
  50. ("name7", 7, "010-83596208", "2020-06-03"),
  51. ("name8", 9, "010-83596208", "2020-06-05"),
  52. ("name9", 8, "010-83596208", "2020-06-06");
  53. dfs -ls /user/hive/warehouse/mydb.db/zxz_data ;
  54. update zxz_data set name=concat(name, "00") where nid>3;
  55. dfs -ls /user/hive/warehouse/mydb.db/zxz_data ;
  56. -- 分桶字段不能修改,下面的语句不能执行
  57. -- Updating values of bucketing columns is not supported
  58. update zxz_data set nid = nid + 1;

第八部分 元数据管理与存储

第 1 节 Metastore

在Hive的具体使用中,首先面临的问题便是如何定义表结构信息,跟结构化的数据映射成功。所谓的映射指的是一种对应关系。在Hive中需要描述清楚表跟文件之间的映
射关系、列和字段之间的关系等等信息。这些描述映射关系的数据的称之为Hive的元数据。该数据十分重要,因为只有通过查询它才可以确定用户编写sql和最终操作文件之间的关系。
Metadata即元数据。元数据包含用Hive创建的database、table、表的字段等元信息。元数据存储在关系型数据库中。如hive内置的Derby、第三方如MySQL等。
Metastore即元数据服务,是Hive用来管理库表元数据的一个服务。有了它上层的服务不用再跟裸的文件数据打交道,而是可以基于结构化的库表信息构建计算框架。


通过metastore服务将Hive的元数据暴露出去,而不是需要通过对Hive元数据库mysql的访问才能拿到Hive的元数据信息;metastore服务实际上就是一种thrift服务,通过它用户可以获取到Hive元数据,并且通过thrift获取元数据的方式,屏蔽了数据库访问需要驱动,url,用户名,密码等细节。
metastore三种配置方式
1、内嵌模式
内嵌模式使用的是内嵌的Derby数据库来存储元数据,也不需要额外起Metastore服务。数据库和Metastore服务都嵌入在主Hive Server进程中。这个是默认的,配置简单,但是一次只能一个客户端连接,适用于用来实验,不适用于生产环境。

  • 优点:配置简单,解压hive安装包 bin/hive 启动即可使用;
  • 缺点:不同路径启动hive,每一个hive拥有一套自己的元数据,无法共享。

2、本地模式
本地模式采用外部数据库来存储元数据,目前支持的数据库有:MySQL、Postgres、Oracle、MS SQL Server。教学中实际采用的是MySQL。
本地模式不需要单独起metastore服务,用的是跟Hive在同一个进程里的metastore服务。也就是说当启动一个hive 服务时,其内部会启动一个metastore服务。Hive根据 hive.metastore.uris 参数值来判断,如果为空,则为本地模式。

  • 缺点:每启动一次hive服务,都内置启动了一个metastore;在hive-site.xml中暴露的数据库的连接信息;
  • 优点:配置较简单,本地模式下hive的配置中指定mysql的相关信息即可。

3. 远程模式
远程模式下,需要单独起metastore服务,然后每个客户端都在配置文件里配置连接到该metastore服务。远程模式的metastore服务和hive运行在不同的进程里。在生
产环境中,建议用远程模式来配置Hive Metastore。

在这种模式下,其他依赖hive的软件都可以通过Metastore访问Hive。此时需要配置hive.metastore.uris 参数来指定 metastore 服务运行的机器ip和端口,并且需要单独手动启动metastore服务。metastore服务可以配置多个节点上,避免单节点故障导致整个集群的hive client不可用。同时hive client配置多个metastore地址,会自动选择可用节点。
metastore内嵌模式配置

  1. 1、下载软件解压缩
  2. 2、设置环境变量,并使之生效
  3. 3、初始化数据库。
  4. schematool -dbType derby -initSchema
  5. 4、进入hive命令行
  6. 5、再打开一个hive命令行,发现无法进入

metastore远程模式配置
配置规划:

配置步骤:
1、将 linux123 的 hive 安装文件拷贝到 linux121、linux122
2、在linux121、linux123上分别启动 metastore 服务

  1. # 启动 metastore 服务
  2. nohup hive --service metastore &
  3. # 查询9083端口(metastore服务占用的端口)
  4. lsof -i:9083
  5. # 安装lsof
  6. yum install lsof

3、修改 linux122 上hive-site.xml。删除配置文件中:MySQL的配置、连接数据库的用户名、口令等信息;增加连接metastore的配置:

  1. <!-- hive metastore 服务地址 -->
  2. <property>
  3. <name>hive.metastore.uris</name>
  4. <value>thrift://linux121:9083,thrift://linux123:9083</value>
  5. </property>

4、启动hive。此时client端无需实例化hive的metastore,启动速度会加快。

  1. # 分别在linux121、linux123上执行以下命令,查看连接情况
  2. lsof -i:9083

5、高可用测试。关闭已连接的metastore服务,发现hive连到另一个节点的服务上,仍然能够正常使用。

第 2 节 HiveServer2

HiveServer2是一个服务端接口,使远程客户端可以执行对Hive的查询并返回结果。目前基于Thrift RPC的实现是HiveServer的改进版本,并支持多客户端并发和身份验证,启动hiveServer2服务后,就可以使用jdbc、odbc、thrift 的方式连接。Thrift是一种接口描述语言和二进制通讯协议,它被用来定义和创建跨语言的服务。它被当作一个远程过程调用(RPC)框架来使用,是由Facebook为“大规模跨语言服务开发”而开发的。


HiveServer2(HS2)是一种允许客户端对Hive执行查询的服务。HiveServer2是
HiveServer1的后续 版本。HS2支持多客户端并发和身份验证,旨在为JDBC、ODBC等开放API客户端提供更好的支持。
HS2包括基于Thrift的Hive服务(TCP或HTTP)和用于Web UI 的Jetty Web服务器。
HiveServer2作用:

  • 为Hive提供了一种允许客户端远程访问的服务
  • 基于thrift协议,支持跨平台,跨编程语言对Hive访问
  • 允许远程访问Hive

HiveServer2配置
配置规划:


配置步骤:
1、修改集群上的 core-site.xml,增加以下内容:

  1. <!-- HiveServer2 连不上10000;hadoop为安装用户 -->
  2. <!-- root用户可以代理所有主机上的所有用户 -->
  3. <property>
  4. <name>hadoop.proxyuser.root.hosts</name>
  5. <value>*</value>
  6. </property>
  7. <property>
  8. <name>hadoop.proxyuser.root.groups</name>
  9. <value>*</value>
  10. </property>
  11. <property>
  12. <name>hadoop.proxyuser.hadoop.hosts</name>
  13. <value>*</value>
  14. </property>
  15. <property>
  16. <name>hadoop.proxyuser.hadoop.groups</name>
  17. <value>*</value>
  18. </property>

2、修改 集群上的 hdfs-site.xml,增加以下内容:

  1. <!-- HiveServer2 连不上10000;启用 webhdfs 服务 -->
  2. <property>
  3. <name>dfs.webhdfs.enabled</name>
  4. <value>true</value>
  5. </property>

3、启动linux123上的 HiveServer2 服务

  1. # 启动 hiveserver2 服务
  2. nohup hiveserver2 &
  3. # 检查 hiveserver2 端口
  4. lsof -i:10000
  5. # 从2.0开始,HiveServer2提供了WebUI
  6. # 还可以使用浏览器检查hiveserver2的启动情况。http://linux123:10002/

4、启动 linux122 节点上的 beeline
Beeline是从 Hive 0.11版本引入的,是 Hive 新的命令行客户端工具。
Hive客户端工具后续将使用Beeline 替代 Hive 命令行工具 ,并且后续版本也会废弃掉 Hive 客户端工具。

  1. !connect jdbc:hive2://linux123:10000
  2. use mydb;
  3. show tables;
  4. select * from emp;
  5. create table tabtest1 (c1 int, c2 string);
  6. !connect jdbc:mysql://linux123:3306
  7. !help
  8. !quit

第 3 节 HCatalog
HCatalog 提供了一个统一的元数据服务,允许不同的工具如 Pig、MapReduce 等通过 HCatalog 直接访问存储在 HDFS 上的底层文件。HCatalog是用来访问Metastore
的Hive子项目,它的存在给了整个Hadoop生态环境一个统一的定义。

HCatalog 使用了 Hive 的元数据存储,这样就使得像 MapReduce 这样的第三方应用可以直接从 Hive 的数据仓库中读写数据。同时,HCatalog 还支持用户在MapReduce 程序中只读取需要的表分区和字段,而不需要读取整个表,即提供一种逻辑上的视图来读取数据,而不仅仅是从物理文件的维度。

HCatalog 提供了一个称为 hcat 的命令行工具。这个工具和 Hive 的命令行工具类似,两者最大的不同就是 hcat 只接受不会产生 MapReduce 任务的命令。

  1. # 进入 hcat 所在目录。$HIVE_HOME/hcatalog/bin
  2. cd $HIVE_HOME/hcatalog/bin
  3. # 执行命令,创建表
  4. ./hcat -e "create table default.test1(id string, name string, age
  5. int)"
  6. # 长命令可写入文件,使用 -f 选项执行
  7. ./hcat -f createtable.txt
  8. # 查看元数据
  9. ./hcat -e "use mydb; show tables"
  10. # 查看表结构
  11. ./hcat -e "desc mydb.emp"
  12. # 删除表
  13. ./hcat -e "drop table default.test1"

第 4 节 数据存储格式
Hive支持的存储数的格式主要有:TEXTFILE(默认格式) 、SEQUENCEFILE、RCFILE、ORCFILE、PARQUET。

  • textfile为默认格式,建表时没有指定文件格式,则使用TEXTFILE,导入数据时会直接把数据文件拷贝到hdfs上不进行处理;
  • sequencefile,rcfile,orcfile格式的表不能直接从本地文件导入数据,数据要先导入到textfile格式的表中, 然后再从表中用insert导入sequencefile、rcfile、orcfile表中。

行存储与列存储

  • 行式存储下一张表的数据都是放在一起的,但列式存储下数据被分开保存了。

行式存储:

  • 优点:数据被保存在一起,insert和update更加容易
  • 缺点:选择(selection)时即使只涉及某几列,所有数据也都会被读取

列式存储:

  • 优点:查询时只有涉及到的列会被读取,效率高
  • 缺点:选中的列要重新组装,insert/update比较麻烦

TEXTFILE、SEQUENCEFILE 的存储格式是基于行存储的;
ORC和PARQUET 是基于列式存储的。


TextFile
Hive默认的数据存储格式,数据不做压缩,磁盘开销大,数据解析开销大。 可结合Gzip、Bzip2使用(系统自动检查,执行查询时自动解压),但使用这种方式,hive不会对数据进行切分,从而无法对数据进行并行操作。

  1. create table if not exists uaction_text(
  2. userid string,
  3. itemid string,
  4. behaviortype int,
  5. geohash string,
  6. itemcategory string,
  7. time string)
  8. row format delimited fields terminated by ','
  9. stored as textfile;
  10. load data local inpath '/home/hadoop/data/useraction.dat'
  11. overwrite into table uaction_text;

SEQUENCEFILE
SequenceFile是Hadoop API提供的一种二进制文件格式,其具有使用方便、可分割、可压缩的特点。 SequenceFile支持三种压缩选择:none,record,block。Record压缩率低,一般建议使用BLOCK压缩。
RCFile
RCFile全称Record Columnar File,列式记录文件,是一种类似于SequenceFile的键值对数据文件。RCFile结合列存储和行存储的优缺点,是基于行列混合存储的RCFile。RCFile遵循的“先水平划分,再垂直划分”的设计理念。先将数据按行水平划分为行组,这样一行的数据就可以保证存储在同一个集群节点;然后在对行进行垂直划分。

  • 一张表可以包含多个HDFS block
  • 在每个block中,RCFile以行组为单位存储其中的数据
  • row group又由三个部分组成
    • 用于在block中分隔两个row group的16字节的标志区
    • 存储row group元数据信息的header
    • 实际数据区,表中的实际数据以列为单位进行存储

ORCFile
ORC File,它的全名是Optimized Row Columnar (ORC) file,其实就是对RCFile做了一些优化,在hive 0.11中引入的存储格式。这种文件格式可以提供一种高效的方法来存储Hive数据。它的设计目标是来克服Hive其他格式的缺陷。运用ORC File可以提高Hive的读、写以及处理数据的性能。ORC文件结构由三部分组成:

  • 文件脚注(file footer):包含了文件中 stripe 的列表,每个stripe行数,以及每个列的数据类型。还包括每个列的最大、最小值、行计数、求和等信息
  • postscript:压缩参数和压缩大小相关信息
  • 条带(stripe):ORC文件存储数据的地方。在默认情况下,一个stripe的大小为250MB
    • Index Data:一个轻量级的index,默认是每隔1W行做一个索引。包括该条带的一些统计信息,以及数据在stripe中的位置索引信息
    • Rows Data:存放实际的数据。先取部分行,然后对这些行按列进行存储。对每个列进行了编码,分成多个stream来存储
    • Stripe Footer:存放stripe的元数据信息

ORC在每个文件中提供了3个级别的索引:文件级、条带级、行组级。借助ORC提供的索引信息能加快数据查找和读取效率,规避大部分不满足条件的查询条件的文件和
数据块。使用ORC可以避免磁盘和网络IO的浪费,提升程序效率,提升整个集群的工作负载。

  1. create table if not exists uaction_orc(
  2. userid string,
  3. itemid string,
  4. behaviortype int,
  5. geohash string,
  6. itemcategory string,
  7. time string)
  8. stored as orc;
  9. insert overwrite table uaction_orc select * from uaction_text;


Parquet
Apache Parquet是Hadoop生态圈中一种新型列式存储格式,它可以兼容Hadoop生态圈中大多数计算框架(Mapreduce、Spark等),被多种查询引擎支持(Hive、Impala、Drill等),与语言和平台无关的。Parquet文件是以二进制方式存储的,不能直接读取的,文件中包括实际数据和元数据,Parquet格式文件是自解析的。


Row group:

  • 写入数据时的最大缓存单元
  • MR任务的最小并发单元
  • 一般大小在50MB-1GB之间

Column chunk:

  • 存储当前Row group内的某一列数据
  • 最小的IO并发单元

Page:

  • 压缩、读数据的最小单元
  • 获得单条数据时最小的读取数据单元
  • 大小一般在8KB-1MB之间,越大压缩效率越高

Footer:

  • 数据Schema信息
  • 每个Row group的元信息:偏移量、大小
  • 每个Column chunk的元信息:每个列的编码格式、首页偏移量、首索引页偏移量、个数、大小等信息
  1. create table if not exists uaction_parquet(
  2. userid string,
  3. itemid string,
  4. behaviortype int,
  5. geohash string,
  6. itemcategory string,
  7. time string)
  8. stored as parquet;
  9. insert overwrite table uaction_parquet select * from
  10. uaction_text;

文件存储格式对比测试
说明:
1、给 linux123 分配合适的资源。2core;2048G内存
2、适当减小文件的数据量(现有数据约800W,根据自己的实际选择处理100-300W条数据均可)

  1. # 检查文件行数
  2. wc -l uaction.dat
  3. #
  4. head -n 1000000 uaction.dat > uaction1.dat
  5. tail -n 1000000 uaction.dat > uaction2.dat

文件压缩比

  1. hive (mydb)> dfs -ls /user/hive/warehouse/mydb.db/ua*;
  2. 13517070 /user/hive/warehouse/mydb.db/uaction_orc/000000_1000
  3. 34867539/user/hive/warehouse/mydb.db/uaction_parquet/000000_1000
  4. 90019734/user/hive/warehouse/mydb.db/uaction_text/useraction.dat

ORC > Parquet > text
执行查询

  1. SELECT COUNT(*) FROM uaction_text;
  2. SELECT COUNT(*) FROM uaction_orc;
  3. SELECT COUNT(*) FROM uaction_parquet;
  4. -- text : 14.446
  5. -- orc: 0.15
  6. -- parquet : 0.146

orc 与 parquet类似 > txt
在生产环境中,Hive表的数据格式使用最多的有三种:TextFile、ORCFile、Parquet。

  • TextFile文件更多的是作为跳板来使用(即方便将数据转为其他格式)
  • 有update、delete和事务性操作的需求,通常选择ORCFile
  • 没有事务性要求,希望支持Impala、Spark,建议选择Parquet


第九部分 Hive调优策略


Hive作为大数据领域常用的数据仓库组件,在设计和开发阶段需要注意效率。影响Hive效率的不仅仅是数据量过大;数据倾斜、数据冗余、job或I/O过多、MapReduce分配不合理等因素都对Hive的效率有影响。对Hive的调优既包含对HiveQL语句本身的优化,也包含Hive配置项和MR方面的调整。

  1. 从以下三个方面展开:
  2. 架构优化
  3. 参数优化
  4. SQL优化

第 1 节 架构优化

执行引擎
Hive支持多种执行引擎,分别是 MapReduce、Tez、Spark、Flink。可以通过hivesite.xml文件中的hive.execution.engine属性控制。
Tez是一个构建于YARN之上的支持复杂的DAG(有向无环图)任务的数据处理框架。由Hontonworks开源,将MapReduce的过程拆分成若干个子过程,同时可以把多个mapreduce任务组合成一个较大的DAG任务,减少了MapReduce之间的文件存储,同时合理组合其子过程从而大幅提升MR作业的性能。

 优化器
与关系型数据库类似,Hive会在真正执行计算之前,生成和优化逻辑执行计划与物理执行计划。Hive有两种优化器:Vectorize(向量化优化器) 与 Cost-BasedOptimization (CBO 成本优化器)。
矢量化查询执行
矢量化查询(要求执行引擎为Tez)执行通过一次批量执行1024行而不是每行一行来提高扫描,聚合,过滤器和连接等操作的性能,这个功能一显着缩短查询执行时间。

  1. set hive.vectorized.execution.enabled = true; -
  2. - 默认 false
  3. set hive.vectorized.execution.reduce.enabled = true; -
  4. - 默认 false

备注:要使用矢量化查询执行,必须用ORC格式存储数据
成本优化器
Hive的CBO是基于apache Calcite的,Hive的CBO通过查询成本(有analyze收集的统计信息)会生成有效率的执行计划,最终会减少执行的时间和资源的利用,使用CBO的配置如下:

  1. SET hive.cbo.enable=true; --从 v0.14.0默认true
  2. SET hive.compute.query.using.stats=true; -- 默认false
  3. SET hive.stats.fetch.column.stats=true; -- 默认false
  4. SET hive.stats.fetch.partition.stats=true; -- 默认true

定期执行表(analyze)的分析,分析后的数据放在元数据库中。
分区表
对于一张比较大的表,将其设计成分区表可以提升查询的性能,对于一个特定分区的查询,只会加载对应分区路径的文件数据,所以执行速度会比较快。分区字段的选择是影响查询性能的重要因素,尽量避免层级较深的分区,这样会造成太多的子文件夹。一些常见的分区字段可以是:

  • 日期或时间。如year、month、day或者hour,当表中存在时间或者日期字段时
  • 地理位置。如国家、省份、城市等
  • 业务逻辑。如部门、销售区域、客户等等

分桶表
与分区表类似,分桶表的组织方式是将HDFS上的文件分割成多个文件。分桶可以加快数据采样,也可以提升join的性能(join的字段是分桶字段),因为分桶可以确保某个key对应的数据在一个特定的桶内(文件),巧妙地选择分桶字段可以大幅度提升join的性能。通常情况下,分桶字段可以选择经常用在过滤操作或者join操作的字段。
文件格式
在HiveQL的create table语句中,可以使用stored as ... 指定表的存储格式。Hive表支持的存储格式有TextFile、SequenceFile、RCFile、ORC、Parquet等。
存储格式一般需要根据业务进行选择,生产环境中绝大多数表都采用TextFile、ORC、Parquet存储格式之一。
TextFile是最简单的存储格式,它是纯文本记录,也是Hive的默认格式。其磁盘开销大,查询效率低,更多的是作为跳板来使用。RCFile、ORC、Parquet等格式的表都
不能由文件直接导入数据,必须由TextFile来做中转。

Parquet和ORC都是Apache旗下的开源列式存储格式。列式存储比起传统的行式存储更适合批量OLAP查询,并且也支持更好的压缩和编码。选择Parquet的原因主要是它支持Impala查询引擎,并且对update、delete和事务性操作需求很低。
数据压缩
压缩技术可以减少map与reduce之间的数据传输,从而可以提升查询性能,关于压缩的配置可以在hive的命令行中或者hive-site.xml文件中进行配置。

SET hive.exec.compress.intermediate=true

开启压缩之后,可以选择下面的压缩格式:


关于压缩的编码器可以通过mapred-site.xml, hive-site.xml进行配置,也可以通过命令行进行配置,如:

  1. -- 中间结果压缩
  2. SET hive.intermediate.compression.codec=org.apache.hadoop.io.compress.SnappyCodec ;
  3. -- 输出结果压缩
  4. SET hive.exec.compress.output=true;
  5. SET mapreduce.output.fileoutputformat.compress.codec =org.apache.hadoop.io.compress.SnappyCodc

设计阶段:

  • 执行引擎
  • 优化器
  • 分区、分桶
  • 文件格式
  • 数据压缩

第 2 节 参数优化

本地模式
当Hive处理的数据量较小时,启动分布式去处理数据会有点浪费,因为可能启动的时间比数据处理的时间还要长。Hive支持将作业动态地转为本地模式,需要使用下面的配置:

  1. SET hive.exec.mode.local.auto=true; -- 默认 false
  2. SET hive.exec.mode.local.auto.inputbytes.max=50000000;
  3. SET hive.exec.mode.local.auto.input.files.max=5; -- 默认 4

一个作业只要满足下面的条件,会启用本地模式

  • 输入文件的大小小于hive.exec.mode.local.auto.inputbytes.max 配置的大小
  • map任务的数量小于hive.exec.mode.local.auto.input.files.max 配置的大小
  • reduce任务的数量是1或者0

严格模式
所谓严格模式,就是强制不允许用户执行3种有风险的HiveQL语句,一旦执行会直接失败。这3种语句是:

  • 查询分区表时不限定分区列的语句;
  • 两表join产生了笛卡尔积的语句;
  • 用order by来排序,但没有指定limit的语句。

要开启严格模式,需要将参数hive.mapred.mode 设为strict(缺省值)。该参数可以不在参数文件中定义,在执行SQL之前设置(sethive.mapred.mode=nostrict )
JVM重用
默认情况下,Hadoop会为为一个map或者reduce启动一个JVM,这样可以并行执行map和reduce。当map或者reduce是那种仅运行几秒钟的轻量级作业时,JVM启动进程所耗费的时间会比作业执行的时间还要长。Hadoop可以重用JVM,通过共享JVM以串行而非并行的方式运行map或者reduce。

 

JVM的重用适用于同一个作业的map和reduce,对于不同作业的task不能够共享JVM。如果要开启JVM重用,需要配置一个作业最大task数量,默认值为1,如果设置为-1,则表示不限制:

  1. # 代表同一个MR job中顺序执行的5个task重复使用一个JVM,减少启动和关闭的开销
  2. SET mapreduce.job.jvm.numtasks=5;

这个功能的缺点是,开启JVM重用将一直占用使用到的task插槽,以便进行重用,直到任务完成后才能释放。如果某个“不平衡的”job中有某几个reduce task执行的时间要比其他Reduce task消耗的时间多的多的话,那么保留的插槽就会一直空闲着却无法被其他的job使用,直到所有的task都结束了才会释放。
并行执行
Hive的查询通常会被转换成一系列的stage,这些stage之间并不是一直相互依赖的,可以并行执行这些stage,通过下面的方式进行配置:

  1. SET hive.exec.parallel=true; -- 默认false
  2. SET hive.exec.parallel.thread.number=16; -- 默认8

并行执行可以增加集群资源的利用率,如果集群的资源使用率已经很高了,那么并行执行的效果不会很明显。
推测执行
在分布式集群环境下,因为程序Bug、负载不均衡、资源分布不均等原因,会造成同一个作业的多个任务之间运行速度不一致,有些任务的运行速度可能明显慢于其他任
务(比如一个作业的某个任务进度只有50%,而其他所有任务已经运行完毕),则这些任务会拖慢作业的整体执行进度。
为了避免这种情况发生,Hadoop采用了推测执行机制,它根据一定的规则推测出“拖后腿”的任务,并为这样的任务启动一个备份任务,让该任务与原始任务同时处理
同一份数据,并最终选用最先成功运行完成任务的计算结果作为最终结果。

  1. set mapreduce.map.speculative=true
  2. set mapreduce.reduce.speculative=true
  3. set hive.mapred.reduce.tasks.speculative.execution=true

合并小文件
在map执行前合并小文件,减少map数

  1. # 缺省参数
  2. set hive.input.format=org.apache.hadoop.hive.ql.io.CombineHiveInputFormat;

在Map-Reduce的任务结束时合并小文件

  1. # 在 map-only 任务结束时合并小文件,默认true
  2. SET hive.merge.mapfiles = true;
  3. # 在 map-reduce 任务结束时合并小文件,默认false
  4. SET hive.merge.mapredfiles = true;
  5. # 合并文件的大小,默认256M
  6. SET hive.merge.size.per.task = 268435456;
  7. # 当输出文件的平均大小小于该值时,启动一个独立的map-reduce任务进行文件merge
  8. SET hive.merge.smallfiles.avgsize = 16777216;

Fetch模式
Fetch模式是指Hive中对某些情况的查询可以不必使用MapReduce计算。selectcol1, col2 from tab ;可以简单地读取表对应的存储目录下的文件,然后输出查询结果到控制台。在开启fetch模式之后,在全局查找、字段查找、limit查找等都不启动 MapReduce 。

  1. # Default Value: minimal in Hive 0.10.0 through 0.13.1, more in Hive 0.14.0 and later
  2. hive.fetch.task.conversion=more

参数调整:

  • 本地模式
  • 严格模式
  • JVM重用
  • 并行执行
  • 推测还行
  • 合并小文件
  • Fetch模式

Hive 参数说明的官方文档:https://cwiki.apache.org/confluence/display/Hive/Configuration+Properties

第 3 节 SQL优化

列裁剪和分区裁剪
列裁剪是在查询时只读取需要的列;分区裁剪就是只读取需要的分区。

  • 简单的说:select 中不要有多余的列,坚决避免 select * from tab;
  • 查询分区表,不读多余的数据;

sort by 代替 order by
HiveQL中的order by与其他关系数据库SQL中的功能一样,是将结果按某字段全局排序,这会导致所有map端数据都进入一个reducer中,在数据量大时可能会长时间计算不完。如果使用sort by,那么还是会视情况启动多个reducer进行排序,并且保证每个reducer内局部有序。为了控制map端数据分配到reducer的key,往往还要配合distribute by 一同使用。如果不加 distribute by 的话,map端数据就会随机分配到reducer。

group by 代替 count(distinct)
当要统计某一列的去重数时,如果数据量很大,count(distinct) 会非常慢。原因与order by类似,count(distinct)逻辑只会有很少的reducer来处理。此时可以用group by 来改写:

  1. -- 原始SQL
  2. select count(distinct uid)
  3. from tab;
  4. -- 优化后的SQL
  5. select count(1)
  6. from (select uid
  7. from tab
  8. group by uid) tmp;

这样写会启动两个MR job(单纯distinct只会启动一个),所以要确保数据量大到启动job的overhead远小于计算耗时,才考虑这种方法。当数据集很小或者key的倾斜
比较明显时,group by还可能会比distinct慢。


group by 配置调整


map端预聚合
group by时,如果先起一个combiner在map端做部分预聚合,可以有效减少shuffle数据量。

  1. -- 默认为true
  2. set hive.map.aggr = true

Map端进行聚合操作的条目数

set hive.groupby.mapaggr.checkinterval = 100000

通过hive.groupby.mapaggr.checkinterval 参数也可以设置map端预聚合的行数阈值,超过该值就会分拆job,默认值10W。


倾斜均衡配置项
group by时如果某些key对应的数据量过大,就会发生数据倾斜。Hive自带了一个均衡数据倾斜的配置项hive.groupby.skewindata ,默认值false。

其实现方法是在group by时启动两个MR job。第一个job会将map端数据随机输入reducer,每个reducer做部分聚合,相同的key就会分布在不同的reducer中。第二个job再将前面预处理过的数据按key聚合并输出结果,这样就起到了均衡的效果。
但是,配置项毕竟是死的,单纯靠它有时不能根本上解决问题,建议了解数据倾斜的细节,并优化查询语句。

join 基础优化


Hive join的三种方式
1、common join
普通连接,在SQL中不特殊指定连接方式使用的都是这种普通连接。

  • 缺点:性能较差(要将数据分区,有shuffle)
  • 优点:操作简单,普适性强

2、map join
map端连接,与普通连接的区别是这个连接中不会有reduce阶段存在,连接在map端完成
适用场景:大表与小表连接,小表数据量应该能够完全加载到内存,否则不适用
优点:在大小表连接时性能提升明显
备注:Hive 0.6 的时候默认认为写在select 后面的是大表,前面的是小表, 或者使用 /*+mapjoin(map_table) / 提示进行设定。select a., b.* from a join b on a.id =b.id【要求小表在前,大表之后】hive 0.7 的时候这个计算是自动化的,它首先会自动判断哪个是小表,哪个是大表,这个参数由(hive.auto.convert.join=true)来控制,然后控制小表的大小由(hive.smalltable.filesize=25000000)参数控制(默认是25M),当小表超过这个大小,hive 会默认转化成common join。

Hive 0.8.1,hive.smalltable.filesize => hive.mapjoin.smalltable.filesize
缺点:使用范围较小,只针对大小表且小表能完全加载到内存中的情况。
3、bucket map join

分桶连接:Hive 建表的时候支持hash 分区通过指定clustered by (col_name,xxx )into number_buckets buckets 关键字.当连接的两个表的join key 就是bucketcolumn 的时候,就可以通过设置hive.optimize.bucketmapjoin= true 来执行优化。
原理:通过两个表分桶在执行连接时会将小表的每个分桶映射成hash表,每个task节点都需要这个小表的所有hash表,但是在执行时只需要加载该task所持有大表分
桶对应的小表部分的hash表就可以,所以对内存的要求是能够加载小表中最大的hash块即可。
备注:小表与大表的分桶数量需要是倍数关系,这个是因为分桶策略决定的,分桶时会根据分桶字段对桶数取余后决定哪个桶的,所以要保证成倍数关系。

  • 优点:比map join对内存的要求降低,能在逐行对比时减少数据计算量(不用比对小表全量)
  • 缺点:只适用于分桶表

利用map join特性
map join特别适合大小表join的情况。Hive会将build table和probe table在map端直接完成join过程,消灭了reduce,效率很高。

  1. select a.event_type, b.upload_time
  2. from calendar_event_code a
  3. inner join (
  4. select event_type, upload_time from calendar_record_log
  5. where pt_date = 20190225
  6. ) b on a.event_type = b.event_type;

map join的配置项是hive.auto.convert.join ,默认值true。
当build table大小小于hive.mapjoin.smalltable.filesize 会启用map join,默认值25000000(约25MB)。还有hive.mapjoin.cache.numrows ,表示缓存build table的多少行数据到内存,默认值25000。
分桶表map join
map join对分桶表还有特别的优化。由于分桶表是基于一列进行hash存储的,因此非常适合抽样(按桶或按块抽样)。它对应的配置项是hive.optimize.bucketmapjoin 。

倾斜均衡配置项
这个配置与 group by 的倾斜均衡配置项异曲同工,通过hive.optimize.skewjoin来配置,默认false。如果开启了,在join过程中Hive会将计数超过阈值hive.skewjoin.key (默认100000)的倾斜key对应的行临时写进文件中,然后再启动另一个job做map join生成结果。通过hive.skewjoin.mapjoin.map.tasks 参数还可以控制第二个job的mapper数量,默认10000。

处理空值或无意义值
日志类数据中往往会有一些项没有记录到,其值为null,或者空字符串、-1等。如果缺失的项很多,在做join时这些空值就会非常集中,拖累进度【备注:这个字段是连
接字段】。若不需要空值数据,就提前写 where 语句过滤掉。需要保留的话,将空值key用随机方式打散,例如将用户ID为null的记录随机改为负值:

  1. select a.uid, a.event_type, b.nickname, b.age
  2. from (
  3. select
  4. (case when uid is null then cast(rand()*-10240 as int) else uid
  5. end) as uid,
  6. event_type from calendar_record_log
  7. where pt_date >= 20190201
  8. ) a left outer join (
  9. select uid,nickname,age from user_info where status = 4
  10. ) b on a.uid = b.uid;

单独处理倾斜key
如果倾斜的 key 有实际的意义,一般来讲倾斜的key都很少,此时可以将它们单独抽取出来,对应的行单独存入临时表中,然后打上一个较小的随机数前缀(比如0~9),最后再进行聚合。不要一个Select语句中,写太多的Join。一定要了解业务,了解数据。(A0-A9)分成多条语句,分步执行;(A0-A4; A5-A9);先执行大表与小表的关联;

调整 Map 数
通常情况下,作业会通过输入数据的目录产生一个或者多个map任务。主要因素包括:

  • 输入文件总数
  • 输入文件大小
  • HDFS文件块大小

map越多越好吗。当然不是,合适的才是最好的。
如果一个任务有很多小文件(<< 128M),每个小文件也会被当做一个数据块,用一个 Map Task 来完成。
一个 Map Task 启动和初始化时间 >> 处理时间,会造成资源浪费,而且系统中同时可用的map数是有限的。
对于小文件采用的策略是合并。
每个map处理接近128M的文件块,会有其他问题吗。也不一定。
有一个125M的文件,一般情况下会用一个Map Task完成。假设这个文件字段很少,但记录数却非常多。如果Map处理的逻辑比较复杂,用一个map任务去做,性能也不好。
对于复杂文件采用的策略是增加 Map 数。

  1. computeSliteSize(max(minSize, min(maxSize, blocksize))) =blocksize
  2. minSize : mapred.min.split.size (默认值1
  3. maxSize : mapred.max.split.size (默认值256M)
  4. 调整maxSize最大值。让maxSize最大值低于blocksize就可以增加map的个数。
  5. 建议用set的方式,针对SQL语句进行调整。

调整 Reduce 数
reducer数量的确定方法比mapper简单得多。使用参数mapred.reduce.tasks 可以直接设定reducer数量。如果未设置该参数,Hive会进行自行推测,逻辑如下:

  • 参数hive.exec.reducers.bytes.per.reducer 用来设定每个reducer能够处理的最大数据量,默认值256M
  • 参数hive.exec.reducers.max 用来设定每个job的最大reducer数量,默认值999(1.2版本之前)或1009(1.2版本之后)
  • 得出reducer数: reducer_num = MIN(total_input_size /reducers.bytes.per.reducer, reducers.max)即: min(输入总数据量 / 256M, 1009)

reducer数量与输出文件的数量相关。如果reducer数太多,会产生大量小文件,对HDFS造成压力。如果reducer数太少,每个reducer要处理很多数据,容易拖慢运行
时间或者造成OOM。

第 4 节 优化小结

深入理解 Hadoop 的核心能力,对Hive优化很有帮助。Hadoop/Hive 处理数据过程,有几个显著特征:

  • 不怕数据多,就怕数据倾斜
  • 对 job 数比较多的作业运行效率相对比较低,比如即使有几百行的表,多次关联多次汇总,产生十几个jobs,执行也需要较长的时间。MapReduce 作业初始化的时间是比较长的
  • 对sum、count等聚合操作而言,不存在数据倾斜问题count(distinct) 效率较低,数据量大容易出问题

从大的方面来说,优化可以从几个方面着手:

  • 好的模型设计,事半功倍
  • 解决数据倾斜问题。仅仅依靠参数解决数据倾斜,是通用的优化手段,收获有限。开发人员应该熟悉业务,了解数据规律,通过业务逻辑解决数据倾斜往往更可靠
  • 减少 job 数
  • 设置合理的map、reduce task数
  • 对小文件进行合并,是行之有效的提高Hive效率的方法
  • 优化把握整体,单一作业的优化不如整体最优

第十部分 Hive案例


综合Hive知识,复习巩固。

第 1 节 需求描述

针对销售数据,完成统计:
1. 按年统计销售额
2. 销售金额在 10W 以上的订单
3. 每年销售额的差值
4. 年度订单金额前10位(年度、订单号、订单金额、排名)
5. 季度订单金额前10位(年度、季度、订单id、订单金额、排名)
6. 求所有交易日中订单金额最高的前10位
7. 每年度销售额最大的交易日
8. 年度最畅销的商品(即每年销售金额最大的商品)

第 2 节 数据说明

 第 3 节 实现

步骤一:创建表
将数据存放在ORC文件中

  1. -- createtable.hql
  2. drop database sale cascade;
  3. create database if not exists sale;
  4. create table sale.dimdate_ori(
  5. dt date,
  6. yearmonth int,
  7. year smallint,
  8. month tinyint,
  9. day tinyint,
  10. week tinyint,
  11. weeks tinyint,
  12. quat tinyint,
  13. tendays tinyint,
  14. halfmonth tinyint
  15. )
  16. row format delimited
  17. fields terminated by ",";
  18. create table sale.sale_ori(
  19. orderid string,
  20. locationid string,
  21. dt date
  22. )
  23. row format delimited
  24. fields terminated by ",";
  25. create table sale.saledetail_ori(
  26. orderid string,
  27. rownum int,
  28. goods string,
  29. num int,
  30. price double,
  31. amount double
  32. )
  33. row format delimited
  34. fields terminated by ",";
  35. create table sale.dimdate(
  36. dt date,
  37. yearmonth int,
  38. year smallint,
  39. month tinyint,
  40. day tinyint,
  41. week tinyint,
  42. weeks tinyint,
  43. quat tinyint,
  44. tendays tinyint,
  45. halfmonth tinyint
  46. ) stored as orc;
  47. create table sale.sale(
  48. orderid string,
  49. locationid string,
  50. dt date
  51. ) stored as orc;
  52. create table sale.saledetail(
  53. orderid string,
  54. rownum int,
  55. goods string,
  56. num int,
  57. price double,
  58. amount double
  59. )stored as orc;
  60. hive -f createtable.hql

 步骤二:导入数据

  1. -- 加载数据
  2. use sale;
  3. load data local inpath "/root/data/tbDate.dat" overwrite into table dimdate_ori;
  4. load data local inpath "/root/data/tbSale.dat" overwrite into table sale_ori;
  5. load data local inpath "/root/data/tbSaleDetail.dat" overwrite into table saledetail_ori;
  6. -- 导入数据
  7. insert into table dimdate select * from dimdate_ori;
  8. insert into table sale select * from sale_ori;
  9. insert into table saledetail select * from saledetail_ori;
  10. hive -f loaddata.hql

步骤三:SQL实现
1、按年统计销售额

  1. SELECT year(B.dt) year, round(sum(A.amount)/10000, 2) amount
  2. FROM saledetail A join sale B on A.orderid=B.orderid
  3. group by year(B.dt);

2、销售金额在 10W 以上的订单

  1. SELECT orderid, round(sum(amount), 2) amount
  2. FROM saledetail
  3. group by orderid
  4. having sum(amount) > 100000

3、每年销售额的差值

  1. SELECT year, round(amount, 2) amount, round(lag(amount) over
  2. (ORDER BY year), 2) prioramount,round(amount - lag(amount) over (ORDER BY year), 2) diff
  3. from (SELECT year(B.dt) year, sum(A.amount) amount
  4. from saledetail A join sale B on A.orderid=B.orderid
  5. group by year(B.dt)
  6. ) tmp;

4、年度订单金额前10位(年度、订单号、订单金额、排名)

  1. -- 方法一
  2. SELECT dt, orderid, amount, rank
  3. from (SELECT dt, orderid, amount,
  4. dense_rank() over(PARTITION BY dt ORDER BY amount
  5. desc) rank
  6. from (SELECT year(B.dt) dt, A.orderid, sum(A.amount)
  7. amount
  8. from saledetail A join sale B on
  9. A.orderid=B.orderid
  10. GROUP BY year(B.dt), A.orderid
  11. ) tmp1
  12. ) tmp2
  13. where rank <= 10;
  14. -- 方法二
  15. with tmp as (
  16. SELECT year(B.dt) dt, A.orderid, sum(A.amount) amount
  17. from saledetail A join sale B on A.orderid=B.orderid
  18. GROUP BY year(B.dt), A.orderid
  19. )
  20. SELECT dt, orderid, amount, rank
  21. from (SELECT dt, orderid, amount,
  22. dense_rank() over(PARTITION BY dt ORDER BY amount
  23. desc) rank
  24. from tmp
  25. ) tmp2
  26. where rank <= 10;


5、季度订单金额前10位(年度、季度、订单id、订单金额、排名)

  1. -- 方法一
  2. with tmp as (
  3. select C.year, C.quat, A.orderid, round(sum(B.amount), 2) amount
  4. from sale A join saledetail B on A.orderid=B.orderid
  5. join dimdate C on A.dt=C.dt
  6. group by C.year, C.quat, A.orderid
  7. )
  8. select year, quat, orderid, amount, rank
  9. from (
  10. select year, quat, orderid, amount,
  11. dense_rank() over (partition by year, quat order by
  12. amount desc) rank
  13. from tmp
  14. ) tmp1
  15. where rank <= 10;
  16. -- 方法二
  17. with tmp as(
  18. select year(A.dt) year,
  19. case when month(A.dt) <= 3 then 1
  20. when month(A.dt) <= 6 then 2
  21. when month(A.dt) <= 9 then 3
  22. else 4 end quat,
  23. A.orderid,
  24. round(sum(B.amount), 2) amount
  25. from sale A join saledetail B on A.orderid = B.orderid
  26. group by year(A.dt),
  27. case when month(A.dt) <= 3 then 1
  28. when month(A.dt) <= 6 then 2
  29. when month(A.dt) <= 9 then 3
  30. else 4 end,
  31. A.orderid
  32. )
  33. select year, quat, orderid, amount, rank
  34. from (
  35. select year, quat, orderid, amount,
  36. dense_rank() over (partition by year, quat order by
  37. amount desc) rank
  38. from tmp
  39. ) tmp1
  40. where rank <= 10;
  41. -- 方法三。求季度
  42. select floor(month(dt/3.1)) + 1;
  43. with tmp as (
  44. select year(A.dt) year, floor(month(A.dt)/3.1) + 1 quat,
  45. A.orderid,
  46. round(sum(B.amount), 2) amount
  47. from sale A join saledetail B on A.orderid=B.orderid
  48. group by year(A.dt), floor(month(A.dt)/3.1) + 1, A.orderid
  49. )
  50. select year, quat, orderid, amount, rank
  51. from (
  52. select year, quat, orderid, amount,
  53. dense_rank() over (partition by year, quat order by
  54. amount desc) rank
  55. from tmp
  56. ) tmp1
  57. where rank <= 10;

6、求所有交易日中订单金额最高的前10位

  1. topN问题:
  2. 1、基础数据
  3. 2、上排名函数
  4. 3、解决N的问题
  5. with tmp as (
  6. select A.dt, A.orderid, round(sum(B.amount), 2) amount
  7. from sale A join saledetail B on A.orderid=B.orderid
  8. group by A.dt, A.orderid
  9. )
  10. select dt, orderid, amount, rank
  11. from (
  12. select dt, orderid, amount, dense_rank() over(order by
  13. amount desc) rank
  14. from tmp
  15. ) tmp1
  16. where rank <= 10;


7、每年度销售额最大的交易日

  1. with tmp as (
  2. select A.dt, round(sum(B.amount), 2) amount
  3. from sale A join saledetail B on A.orderid=B.orderid
  4. group by A.dt
  5. )
  6. select year(dt) year, max(amount) dayamount
  7. from tmp
  8. group by year(dt);

8、年度最畅销的商品(即每年销售金额最大的商品)

  1. with tmp as (
  2. select year(B.dt) year, goods, round(sum(amount),2) amount
  3. from saledetail A join sale B on A.orderid=B.orderid
  4. group by year(B.dt), goods
  5. )
  6. select year, goods, amount
  7. from (select year, goods, amount, dense_rank() over (partition
  8. by year order by amount desc) rank
  9. from tmp) tmp1
  10. where rank = 1;


数据交互工具 -- HUE

第一部分 Hue概述

Hue(Hadoop User Experience)是一个开源的 Apache Hadoop UI 系统,最早是由Cloudera Desktop 演化而来,由 Cloudera 贡献给开源社区,它是基于 PythonWeb 框架 Django 实现的。通过使用 Hue 可以在浏览器端的 Web 控制台上与Hadoop 集群进行交互来分析处理数据,例如操作 HDFS 上的数据,运行
MapReduce Job 等等。Hue所支持的功能特性集合:

  • 默认基于轻量级sqlite数据库管理会话数据,用户认证和授权,可以自定义为MySQL、Postgresql,以及Oracle
  • 基于文件浏览器(File Browser)访问HDFS
  • 基于Hive编辑器来开发和运行Hive查询
  • 支持基于Solr进行搜索的应用,并提供可视化的数据视图,以及仪表板(Dashboard)
  • 支持基于Impala的应用进行交互式查询
  • 支持Spark编辑器和仪表板(Dashboard)
  • 支持Pig编辑器,并能够提交脚本任务
  • 支持Oozie编辑器,可以通过仪表板提交和监控Workflow、Coordinator和Bundle
  • 支持HBase浏览器,能够可视化数据、查询数据、修改HBase表
  • 支持Metastore浏览器,可以访问Hive的元数据,以及HCatalog
  • 支持Job浏览器,能够访问MapReduce Job(MR1/MR2-YARN)
  • 支持Job设计器,能够创建MapReduce/Streaming/Java Job
  • 支持Sqoop 2编辑器和仪表板(Dashboard)
  • 支持ZooKeeper浏览器和编辑器
  • 支持MySql、PostGresql、Sqlite和Oracle数据库查询编辑器

一句话总结:Hue是一个友好的界面集成框架,可以集成我们各种学习过的以及将要学习的框架,一个界面就可以做到查看以及执行所有的框架。


类似的产品还有 Apache Zeppelin。


第二部分 Hue编译安装

Hue官方网站:https://gethue.com/
HUE官方用户手册:https://docs.gethue.com/

官方安装文档:https://docs.gethue.com/administrator/installation/install/
HUE下载地址:https://docs.gethue.com/releases/
Hue的安装并不是那么简单,官方并没有编译好的软件包,需要从github上下载源码、安装依赖、编译安装。以下详细讲解Hue下载、编译、安装的操作过程。
安装Hue的节点上最好没有安装过MySQL,否则可能有版本冲突,这里选择将Hue
安装在 linux122 上。

  • 1、下载软件包、上传、解压(hue-release-4.3.0.zip、apache-maven-3.6.3-bin.tar.gz)
  • 2、安装依赖包
  • 3、安装maven
  • 4、hue编译
  • 5、修改hadoop配置
  • 6、修改hue配置
  • 7、启动hue服务

2.1、下载软件包
到官方网站下载 hue-release-4.3.0.zip;上传至服务器,并解压缩

  1. yum install unzip
  2. unzip hue-release-4.3.0.zip

2.2、安装依赖

  1. # 需要Python支持(Python 2.7+ / Python 3.5+)
  2. python --version
  3. # 在 CentOS 系统中安装编译 Hue 需要的依赖库
  4. yum install ant asciidoc cyrus-sasl-devel cyrus-sasl-gssapi
  5. cyrus-sasl-plain gcc gcc-c++ krb5-devel libffi-devel libxml2-
  6. devel libxslt-devel make mysql mysql-devel openldap-devel pythondevel
  7. sqlite-devel gmp-devel
  8. yum install -y rsync

备注:

  • 以上依赖仅适用CentOS/RHEL 7.X,其他情况请参考https://docs.gethue.com/administrator/installation/dependencies/
  • 安装Hue的节点上最好没有安装过MySQL,否则可能有版本冲突
  • 安装过程中需要联网,网络不好会有各种奇怪的问题

2.3、安装Maven
编译 Hue 还需要 Maven 环境,因此在编译前需要安装 Maven。下载 apache-maven-3.6.3-bin.tar.gz,上传虚拟机解压缩,添加环境变量

  1. vi /etc/profile
  2. # 添加环境变量
  3. export MAVEN_HOME=/opt/lagou/servers/apache-maven-3.6.3
  4. export PATH=$PATH:$MAVEN_HOME/bin
  5. source /etc/profile
  6. # 验证安装
  7. mvn --version


2.4、编译

  1. # 进入 hue 源码目录,进行编译。 使用 PREFIX 指定安装 Hue 的路径
  2. cd /opt/lagou/software/hue-release-4.3.0
  3. PREFIX=/opt/lagou/servers make install
  4. cd /opt/lagou/servers
  5. # 如果想把HUE从移动到另外一个地方,由于HUE使用了Python包的一些绝对路径,移动之
  6. 后则必须执行以下命令:
  7. # 这里不要执行
  8. rm app.reg
  9. rm -r build
  10. make apps

备注:这一步持续的时间比较长,还会从网上下载 jar;需要联网

2.5、修改 Hadoop 配置文件
在 hdfs-site.xml 中增加配置

  1. <!-- HUE -->
  2. <property>
  3. <name>dfs.webhdfs.enabled</name>
  4. <value>true</value>
  5. </property>
  6. <property>
  7. <name>dfs.permissions.enabled</name>
  8. <value>false</value>
  9. </property>

在 core-site.xml 中增加配置

  1. <!-- HUE -->
  2. <property>
  3. <name>hadoop.proxyuser.hue.hosts</name>
  4. <value>*</value>
  5. </property>
  6. <property>
  7. <name>hadoop.proxyuser.hue.groups</name>
  8. <value>*</value>
  9. </property>
  10. <property>
  11. <name>hadoop.proxyuser.hdfs.hosts</name>
  12. <value>*</value>
  13. </property>
  14. <property>
  15. <name>hadoop.proxyuser.hdfs.groups</name>
  16. <value>*</value>
  17. </property>

增加 httpfs-site.xml 文件,加入配置

  1. <configuration>
  2. <!-- HUE -->
  3. <property>
  4. <name>httpfs.proxyuser.hue.hosts</name>
  5. <value>*</value>
  6. </property>
  7. <property>
  8. <name>httpfs.proxyuser.hue.groups</name>
  9. <value>*</value>
  10. </property>
  11. </configuration>

备注:修改完HDFS相关配置后,需要把配置scp给集群中每台机器,重启hdfs服务。


2.6、Hue配置

  1. # 进入 Hue 安装目录
  2. cd /opt/lagou/servers/hue
  3. # 进入配置目录
  4. cd desktop/conf
  5. # 复制一份HUE的配置文件,并修改复制的配置文件
  6. cp pseudo-distributed.ini.tmpl pseudo-distributed.ini
  7. vi pseudo-distributed.ini
  1. # [desktop]
  2. http_host=linux122
  3. http_port=8000
  4. is_hue_4=true
  5. time_zone=Asia/Shanghai
  6. dev=true
  7. server_user=hue
  8. server_group=hue
  9. default_user=hue
  10. # 211行左右。禁用solr,规避报错
  11. app_blacklist=search
  12. # [[database]]。Hue默认使用SQLite数据库记录相关元数据,替换为mysql
  13. engine=mysql
  14. host=linux123
  15. port=3306
  16. user=hive
  17. password=12345678
  18. name=hue
  19. # 1003行左右,Hadoop配置文件的路径
  20. hadoop_conf_dir=/opt/lagou/servers/hadoop-2.9.2/etc/hadoop
  1. # 在mysql中创建数据库hue,用来存放元数据
  2. mysql -uhive -p12345678
  3. mysql> create database hue;
  4. # 初始化数据库
  5. build/env/bin/hue syncdb
  6. build/env/bin/hue migrate
  7. # 检查数据

2.7、启动 Hue 服务

  1. # 增加 hue 用户和用户组
  2. groupadd hue
  3. useradd -g hue hue
  4. # 在hue安装路径下执行
  5. build/env/bin/supervisor

在浏览器中输入:linux122:8000,可以看见以下画面,说明安装成功。
第一次访问的时候,需要设置超级管理员用户和密码。记住它(hue/123456)。

第三部分 Hue整合Hadoop、Hive

修改参数文件 /opt/lagou/servers/hue/desktop/conf/pseudo-distributed.ini

3.1 集成HDFS、YARN

  1. # 211 行。 没有安装 Solr,禁用,否则一直报错
  2. app_blacklist=search
  3. # [hadoop] -- [[hdfs_clusters]] -- [[[default]]]
  4. # 注意端口号。下面语句只要一个
  5. # fs_defaultfs=hdfs://linux121:8020
  6. fs_defaultfs=hdfs://linux121:9000
  7. webhdfs_url=http://linux121:50070/webhdfs/v1
  8. # 211
  9. hadoop_conf_dir=/opt/lagou/servers/hadoop-2.9.2/etc/hadoop
  10. # [hadoop] -- [[yarn_clusters]] -- [[[default]]]
  11. resourcemanager_host=linux123
  12. resourcemanager_port=8032
  13. submit_to=True
  14. resourcemanager_api_url=http://linux123:8088
  15. proxy_api_url=http://linux123:8088
  16. history_server_api_url=http://linux123:19888

3.2 集成Hive

集成Hive需要启动 Hiveserver2 服务,在linux123节点上启动 Hiveserver2

  1. # [beeswax]
  2. hive_server_host=linux123
  3. hive_server_port=10000
  4. hive_conf_dir=/opt/lagou/servers/hive-2.3.7/conf

3.3 集成MySQL

  1. # [librdbms] -- [[databases]] -- [[[mysql]]];1639行
  2. # 注意:1639行原文: ##[[mysql]] => [[mysql]];两个##要去掉!
  3. [[[mysql]]]
  4. nice_name="My SQL DB"
  5. name=hue
  6. engine=mysql
  7. host=linux123
  8. port=3306
  9. user=hive
  10. password=12345678

备注:name是数据库名,即 database 的名称

 

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/weixin_40725706/article/detail/691829
推荐阅读
相关标签
  

闽ICP备14008679号