赞
踩
CTE语法类似子查询,可以将一个select语句计算的结果当成一个新的临时表使用
-- 子查询,将子查询的结果当做表使用 select empno,ename from ( select * from emp) t1;
-- 基本用法 with 临时表名 as(查询语句) select * from 临时表名 -- 多个计算结果保存 with tb1 as(查询语句),, tb2 as(查询语句 select * from tb1), tb3 as(查询语句) ..... select * from tb3 join tb2
with tb1 as(select * from emp) select ename,sal from tb1;
将如下子查询改为cte语法实现
SELECT t2.shop, t2.user_id, t2.cnt FROM (SELECT t1.*, row_number() over (partition BY t1.shop ORDER BY t1.cnt DESC) rk FROM (SELECT user_id, shop, count(*) AS cnt FROM test2 GROUP BY user_id, shop) t1) t2 WHERE rk <= 3;
-- CTE语法可以方便代码阅读,将多个计算步骤拆分 with tb1 as( SELECT user_id, shop, count(*) AS cnt FROM test2 GROUP BY user_id, shop ), tb2 as( SELECT tb1.*, row_number() over (partition BY tb1.shop ORDER BY tb1.cnt DESC) rk FROM tb1 ) select * from tb2 where rk <=3;
窗口函数和CTE语法是mysql8.0以上版本支持
函数的分类:
udf(user define function) 函数 数据输入多少,返回多少行数据 计算是一进一出
hive中的大部分函数都是udf函数
udaf (user define aggregation function)函数 输入多行数据返回一行结果 多进一出
聚合方法
sum
avg
count
max
min
udtf函数 输入一行返回多行 一进多出
explode方法
爆炸函数,可以将数组中的数据拆分多行
create table tb_user( id int, name string, hobby string )row format delimited fields terminated by ','; select id,name,split(hobby,'-') as hobby from tb_user; -- explode不能直接和其他字段出现在select中 select explode(split(hobby,'-')) as hobby from tb_user; -- 使用侧视图的方法和其他字段一起展示 -- lateral view 爆炸函数 表名 as 字段名 select id,name,new_hobby from tb_user lateral view explode(split(hobby,'-')) tb1 as new_hobby; -- 不能简单使用join进行关联数据 select * from tb_user join (select explode(split(hobby,'-')) as hobby from tb_user) tb1;
collect方法
将一列数据中的多行数据合并成一行
-- collect_list 合并后不会去重 select collect_list(name) from tb_user; -- collect_list 合并会对数据进行去重 select collect_set(name) from tb_user;
用户访问数据
create table tb_visit( id int, name string, url string )row format delimited fields terminated by ','; select * from tb_visit; select collect_set(name) from tb_visit; -- 统计不同用户访问了哪些网址 select name,collect_set(url) from tb_visit group by name;
从海量数据中随机抽取部分样本数据进行计算得到的结果趋势和整体趋势一致
格式
SELECT ... FROM tbl TABLESAMPLE(BUCKET x OUT OF y ON(colname | rand())) y表示将表数据随机划分成y份(y个桶) x表示从y里面随机抽取x份数据作为取样 colname表示随机的依据基于某个列的值 rand()表示随机的依据基于整行
随机抽样的原理,是先将数据进行分桶,在从多个分桶中抽取数据
create table tb_stu( id int, name string, age int, gender int, dt string )row format delimited fields terminated by ','; -- 指定字段进行分桶抽样 select * from tb_stu tablesample (bucket 2 out of 30 on name); -- 随机抽取 with tb1 as (select * from tb_stu tablesample (bucket 2 out of 20 on rand())) select gender,count(*) from tb1 group by gender;
hive表中自带字段列,在进行select查询时没有指定,不会出现在 查询结果中
可以在select中指定这些字段显示内容
INPUT__FILE__NAME,显示数据行所在的具体文件 BLOCK__OFFSET__INSIDE__FILE,显示数据行所在文件的偏移量 ROW__OFFSET__INSIDE__BLOCK,显示数据所在HDFS块的偏移量 此虚拟列需要设置:SET hive.exec.rowoffset=true 才可使用
select *,INPUT__FILE__NAME from brand; select * from brand where INPUT__FILE__NAME='hdfs://node1:8020/user/hive/warehouse/pydata.db/brand/000001_0'; select *,BLOCK__OFFSET__INSIDE__FILE from tb_stu; SET hive.exec.rowoffset=true; select *,ROW__OFFSET__INSIDE__BLOCK from tb_stu;
基于已经存在的表创建新的表,对原始表复制一个新的表
like语法
将原始表的元数据(也就是表的名字字段等信息复制一份),不会复制行数据
创建之后是一个空表
create table 新的表名 like 原始表名
as语法
会将原始数据表的内容全部复制一份到新表中
create table 新的表名 as select * from 原始表
select * from tb_user; create table tb_user_new like tb_user; select * from tb_user_new; create table tb_user_new_new as select * from tb_user; select * from tb_user_new_new;
视图本质是将select查询语句进行保存,每次进行数据计算时,如果使用相同的sql语句,就不需要再重新写一遍
create view 视图名 as 查询语句
-- 将计算的sql语句保存在视图中 create view sum_view as select sum(if(name is not null,1,0) ) from tb_user; -- 当查询视图时,就会自动执行视图中的sql语句 select * from sum_view;
mysql中也是可以使用视图
-- (1)修改表字段注解和表注解 use hive3; alter table COLUMNS_V2 modify column COMMENT varchar(256) character set utf8; alter table TABLE_PARAMS modify column PARAM_VALUE varchar(4000) character set utf8; -- (2)修改分区字段注解 alter table PARTITION_PARAMS modify column PARAM_VALUE varchar(4000) character set utf8 ; alter table PARTITION_KEYS modify column PKEY_COMMENT varchar(4000) character set utf8; -- (3)修改索引注解 alter table INDEX_PARAMS modify column PARAM_VALUE varchar(4000) character set utf8;
hive的表的行数据是以文件方式存在hdfs
优点:
减少存储磁盘空间,降低单节点的磁盘IO。
由于压缩后的数据占用的带宽更少,因此可以加快数据在Hadoop集群流动的速度,减少网络传输带宽。
缺点:
需要花费额外的时间/CPU做压缩和解压缩计算。
压缩格式 | 压缩格式所在的类 |
---|---|
Zlib | org.apache.hadoop.io.compress.DefaultCodec |
Gzip | org.apache.hadoop.io.compress.GzipCodec |
Bzip2 | org.apache.hadoop.io.compress.BZip2Codec |
Lzo | com.hadoop.compression.lzo.LzoCodec |
Lz4 | org.apache.hadoop.io.compress.Lz4Codec |
Snappy | org.apache.hadoop.io.compress.SnappyCodec |
默认文件的压缩方式是Zlib
,可以在建表的时候指定表数据按照那种压缩方式存储数据,zlib压缩的占用空间少,但是消耗的时间实际开发建议使用Snappy 压缩空间和速度比较均衡
表数据存储方式有两种
一个行存储 一个列存储
逻辑表中的数据,最终需要落到磁盘上,以文件的形式存储,有两种常见的存储形式。行式存储和列式存储。
Hive支持的存储数的格式主要有:TEXTFILE(行式存储) 、SEQUENCEFILE(行式存储)、ORC(列式存储)、PARQUET(列式存储)。
默认的存储格式是
TEXTFILE(行式存储)
列存储的数据会转为二进制存储,所以文件打开后乱码
STORED AS orc tblproperties ("orc.compress"="SNAPPY");
create table tb_visit_new( id int, name string, url string ) -- stored as指定orc(列存储)存储方式 tblproperties("orc.compress"="SNAPPY") 指定压缩方式 stored as orc tblproperties("orc.compress"="SNAPPY"); insert into tb_visit_new select * from tb_visit; select * from tb_visit_new;
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。