当前位置:   article > 正文

Hive-Sql复杂面试题

Hive-Sql复杂面试题

参考链接:hive sql面试题及答案 - 知乎

有哪些好的题目都可以给我哦 我来汇总到一起

1、编写sql实现每个用户截止到每月为止的最大单月访问次数和累计到该月的总访问次数

数据:
userid,month,visits
A,2015-01,5
A,2015-01,15
B,2015-01,5
A,2015-01,8
B,2015-01,25
A,2015-01,5
A,2015-02,4
A,2015-02,6
B,2015-02,10
B,2015-02,5
A,2015-03,16
A,2015-03,22
B,2015-03,23
B,2015-03,10
B,2015-03,1

预期结果:

  1. create table u_visit(
  2. userid STRING ,month STRING ,visits BIGINT
  3. ) LIFECYCLE 1;
  4. INSERT into u_visit values
  5. ('A','2015-01',5)
  6. ,('A','2015-01',15)
  7. ,('B','2015-01',5)
  8. ,('A','2015-01',8)
  9. ,('B','2015-01',25)
  10. ,('A','2015-01',5)
  11. ,('A','2015-02',4)
  12. ,('A','2015-02',6)
  13. ,('B','2015-02',10)
  14. ,('B','2015-02',5)
  15. ,('A','2015-03',16)
  16. ,('A','2015-03',22)
  17. ,('B','2015-03',23)
  18. ,('B','2015-03',10)
  19. ,('B','2015-03',1);
  20. 思路:
  21. 截至当前累计 over中加order by 时间
  22. 全累计 over中不加order by 时间
  23. SELECT userid
  24. ,MONTH
  25. ,visits
  26. ,max(visits) OVER(PARTITION BY userid ) AS max_visit
  27. ,max(visits) OVER(PARTITION BY userid ORDER BY MONTH ASC ) AS max_visit --截止到当月最大值
  28. ,SUM(visits) OVER(PARTITION BY userid ORDER BY MONTH ASC ) AS sum_visit
  29. FROM (
  30. SELECT userid
  31. ,MONTH
  32. ,sum(visits) visits
  33. FROM u_visit
  34. GROUP BY userid
  35. ,MONTH
  36. ) A
  37. ;

结果

用户id 月份 月访问数 截止目前最大访问数 截止当前月最大访问数 截止当前月总访问数 

userid    month    visits    max_visit    max_visit2    sum_visit
A    2015-01    33    38    33    33
A    2015-02    10    38    33    43
A    2015-03    38    38    38    81
B    2015-01    30    34    30    30
B    2015-02    15    34    30    45
B    2015-03    34    34    34    79
 

2、求出每个栏目的被观看次数及累计观看时长

数据:
vedio表

用户id 栏目id 时长
Uid channl min
1 1 23
2 1 12
3 1 12
4 1 32
5 1 342
6 2 13
7 2 34
8 2 13
9 2 134

这个好简单 pass

3、编写连续7天登录的总人数

数据:
t1表
Uid dt login_status(1登录成功,0异常)
1 2019-07-11 1
1 2019-07-12 1
1 2019-07-13 1
1 2019-07-14 1
1 2019-07-15 1
1 2019-07-16 1
1 2019-07-17 1
1 2019-07-18 1
2 2019-07-11 1
2 2019-07-12 1
2 2019-07-13 0
2 2019-07-14 1
2 2019-07-15 1
2 2019-07-16 0
2 2019-07-17 1
2 2019-07-18 0
3 2019-07-11 1
3 2019-07-12 1
3 2019-07-13 1
3 2019-07-14 1
3 2019-07-15 1
3 2019-07-16 1
3 2019-07-17 1
3 2019-07-18 1

  1. create TABLE t1(
  2. Uid bigint,dt STRING , login_status BIGINT COMMENT '(1登录成功,0异常)'
  3. ) LIFECYCLE 1;
  4. INSERT INTO t1 VALUES
  5. (1, '2019-07-11', 1)
  6. ,(1, '2019-07-12', 1)
  7. ,(1, '2019-07-13', 1)
  8. ,(1, '2019-07-14', 1)
  9. ,(1, '2019-07-15', 1)
  10. ,(1, '2019-07-16', 1)
  11. ,(1, '2019-07-17', 1)
  12. ,(1, '2019-07-18', 1)
  13. ,(2, '2019-07-11', 1)
  14. ,(2, '2019-07-12', 1)
  15. ,(2, '2019-07-13', 0)
  16. ,(2, '2019-07-14', 1)
  17. ,(2, '2019-07-15', 1)
  18. ,(2, '2019-07-16', 0)
  19. ,(2, '2019-07-17', 1)
  20. ,(2, '2019-07-18', 0)
  21. ,(3, '2019-07-11', 1)
  22. ,(3, '2019-07-12', 1)
  23. ,(3, '2019-07-13', 1)
  24. ,(3, '2019-07-14', 1)
  25. ,(3, '2019-07-15', 1)
  26. ,(3, '2019-07-16', 1)
  27. ,(3, '2019-07-17', 1)
  28. ,(3, '2019-07-18', 1);
  1. --思路1
  2. -- 1、先按照每个人登录时间排序成如下数据结构
  3. -- 1 07-01 1
  4. -- 1 07-02 2
  5. -- 1 07-03 3
  6. --2、 时间与排序做date_sub,变成如下结果
  7. -- 1 07-01 1 06-30
  8. -- 1 07-02 2 06-30
  9. -- 1 07-03 3 06-30
  10. -- 3、根据id聚合时间差,变成如下结果:
  11. --1 06-30 3 07-01 07-03 证明用户1 连续登录了3天 起始登录时间是07-01 结束连续登录是07-03
  12. SELECT Uid
  13. ,COUNT(dtadd) AS countadd
  14. ,COUNT(dtsub) AS countsub
  15. ,MIN(dt) mindt
  16. ,MAX(dt) maxdt
  17. FROM (
  18. SELECT Uid
  19. ,dt
  20. ,DATEADD(dt,-rk,'dd') dtadd
  21. ,date_sub(dt,rk) dtsub
  22. FROM (
  23. SELECT Uid
  24. ,to_date(dt,'yyyy-mm-dd') dt
  25. ,ROW_NUMBER() OVER(PARTITION BY uid ORDER BY dt ASC ) AS rk
  26. FROM t1
  27. WHERE login_status = 1
  28. ) A
  29. ) B
  30. GROUP BY uid
  31. HAVING COUNT(dtadd) >= 7
  32. ;

结果:

uid    countadd    countsub    mindt    maxdt
1    8    8    2019-07-11 00:00:00    2019-07-18 00:00:00
3    8    8    2019-07-11 00:00:00    2019-07-18 00:00:00 

  1. -- 思路2:
  2. -- 1、先按照每个人登录时间排序成如下数据结构
  3. -- 1 07-01 1
  4. -- 1 07-02 2
  5. -- 1 07-03 3
  6. --2、 利用lead或lag函数 上下错位,并计算时间差
  7. -- 1 07-01 07-02 1
  8. -- 1 07-02 07-03 1
  9. -- 1 07-03 null
  10. -- 3、根据id聚合时间差,变成如下结果:
  11. --1 2(因为有null,得再加个1) 证明用户1 连续登录了3天
  12. SELECT
  13. uid
  14. ,COUNT(dtdiff)+1 AS 登录总次数
  15. FROM
  16. (SELECT Uid
  17. ,dt
  18. ,LEAD(dt,1) OVER (PARTITION BY uid ORDER BY dt ASC) leadrk
  19. ,DATEDIFF(dt,LEAD(dt,1) OVER (PARTITION BY uid ORDER BY dt ASC),'dd') dtdiff
  20. FROM (
  21. SELECT Uid
  22. ,to_date(dt,'yyyy-mm-dd') dt
  23. ,ROW_NUMBER() OVER(PARTITION BY uid ORDER BY dt ASC ) AS rk
  24. FROM t1
  25. WHERE login_status = 1
  26. ) A
  27. ) B
  28. where (dtdiff=-1 or dtdiff is null)
  29. group by uid
  30. HAVING COUNT(dtdiff)+1>=7
  31. ;

结果:

uid    登录总次数
1    8
3    8
 

4、编写sql语句实现每班前三名,分数一样并列,同时求出前三名按名次排序的依次的分差:

数据:
stu表
Stu_no class score
1 1901 90
2 1901 90
3 1901 83
4 1901 60
5 1902 66
6 1902 23
7 1902 99
8 1902 67
9 1902 87

  1. create table stu(
  2. Stu_no BIGINT , class BIGINT , score BIGINT
  3. ) LIFECYCLE 1;
  4. INSERT INTO stu VALUES
  5. (1 ,1901, 90)
  6. ,(2 ,1901, 90)
  7. ,(3 ,1901, 83)
  8. ,(4 ,1901, 60)
  9. ,(5 ,1902, 66)
  10. ,(6 ,1902, 23)
  11. ,(7 ,1902, 99)
  12. ,(8 ,1902, 67)
  13. ,(9 ,1902, 87);
  1. -- 思路1
  2. -- 1、各班自行排序,可并列 应使用 dense_rank 区别rankrk
  3. -- 2、利用lag或lead函数,上下错误,并计算分差
  4. SELECT stu_no
  5. ,class
  6. ,score
  7. ,LEAD(score,1) OVER (PARTITION BY class ORDER BY score DESC ) leadscore
  8. ,LAG(score,1) OVER (PARTITION BY class ORDER BY score DESC ) lagscore
  9. ,score-nvl(LEAD(score,1) OVER (PARTITION BY class ORDER BY score DESC ),0) AS 分差lead
  10. ,LAG(score,1) OVER (PARTITION BY class ORDER BY score DESC )-score AS 分差lag
  11. FROM (
  12. SELECT stu_no
  13. ,class
  14. ,score
  15. ,DENSE_RANK() OVER (PARTITION BY class ORDER BY score DESC ) denserk
  16. ,RANK() OVER (PARTITION BY class ORDER BY score DESC ) rankrk
  17. FROM stu
  18. ) A
  19. WHERE denserk <= 3
  20. ;

第一步结果:

stu_no    class    score    denserk    rankrk
1    1901    90    1    1
2    1901    90    1    1
3    1901    83    2    3
4    1901    60    3    4
7    1902    99    1    1
9    1902    87    2    2
8    1902    67    3    3
5    1902    66    4    4
6    1902    23    5    5
 

结果 [具体向上取分差还是向下取分差按实际情况即可]:

stu_no    class    score    leadscore    lagscore    分差lead    分差lag
1    1901    90    90    \N    0    \N
2    1901    90    83    90    7    0
3    1901    83    60    90    23    7
4    1901    60    \N    83    60    23
7    1902    99    87    \N    12    \N
9    1902    87    67    99    20    12
8    1902    67    \N    87    67    20
 

5、每个店铺的当月销售额和累计到当月的总销售额

数据:
店铺,月份,金额
a,01,150
a,01,200
b,01,1000
b,01,800
c,01,250
c,01,220
b,01,6000
a,02,2000
a,02,3000
b,02,1000
b,02,1500
c,02,350
c,02,280
a,03,350
a,03,250

参考1思路

6、分析用户的行为习惯,找到每个用户的第一次行为

数据:user_action_log

uid time action

1 time1 Read

3 time2 Comment

1 time3 Share

2 time4 Like

1 time5 Write

2 time6 Share

3 time7 Write

2 time8 Read

思路,

1、排序取第一个

2、first_value函数

7、订单及订单类型行列互换

t_order表:
order_id order_type order_time
111 N 10:00
111 A 10:05
111 B 10:10
是用hql获取结果如下:
order_id order_type_1 order_type_2 order_time_1 order_time_2
111 N A 10:00 10:05
111 A B 10:05 10:10

  1. create table t_order
  2. (order_id BIGINT , order_type STRING , order_time STRING )
  3. LIFECYCLE 1;
  4. INSERT INTO t_order VALUES
  5. (111, 'N', '10:00')
  6. ,(111, 'A', '10:05')
  7. ,(111, 'B', '10:10');
  8. --思路
  9. -- 1、按照时间升序排列数据
  10. -- 2、利用lead函数取下一个数据,取不到的排除掉
  11. SELECT *
  12. FROM (
  13. SELECT order_id
  14. ,order_type AS order_type_1
  15. ,LEAD(order_type,1) OVER (PARTITION BY order_id ORDER BY order_time ASC ) AS order_type_2
  16. ,order_time AS order_time_1
  17. ,LEAD(order_time,1) OVER (PARTITION BY order_id ORDER BY order_time ASC ) AS order_time_2
  18. FROM (
  19. SELECT order_id
  20. ,order_type
  21. ,order_time
  22. ,ROW_NUMBER() OVER (PARTITION BY order_id ORDER BY order_time ASC ) rk
  23. FROM t_order
  24. ) A
  25. )
  26. WHERE order_type_2 IS NOT NULL
  27. ;

结果:

order_id    order_type_1    order_type_2    order_time_1    order_time_2
111    N    A    10:00    10:05
111    A    B    10:05    10:10
 

8、某APP每天访问数据存放在表access_log里面,包含日期字段 ds,用户类型字段user_type,用户账号user_id,用户访问时间 log_time,请使用hive的hql语句实现如下需求:

(1)、每天整体的访问UV、PV?
(2)、每天每个类型的访问UV、PV?
(3)、每天每个类型中最早访问时间和最晚访问时间?
(4)、每天每个类型中访问次数最高的10个用户?

(1)思路

UV = count(user_id)

PV = sum(user_id)

select
count(user_id) over(distribute by user_id) uv,
sum(user_id) over(distribute by log_time) pv
from access_log

(2)思路

select
count(user_id) uv
sum(user_id) over(distribute by log_time) pv
from access_log al1
inner join
access_log al2
group by
user_type

(3)思路
select
first_value(log_time) over(distribute by user_type order by log_time) first_time,
last_value(log_time) over(distribute by user_type order by log_time)
from access_log

(4)思路
select
user_id
from
(select
count(user_id) cnt
row_number() over(distribute by user_type order by count(user_id)) rows
from access_log) tmp
where tmp.rows<=10

9、每个用户连续登陆的最大天数?

数据:
login表
uid,date
1,2019-08-01
1,2019-08-02
1,2019-08-03
2,2019-08-01
2,2019-08-02
3,2019-08-01
3,2019-08-03
4,2019-07-28
4,2019-07-29
4,2019-08-01
4,2019-08-02
4,2019-08-03
结果如下:
uid cnt_days
1 3
2 2
3 1
4 3

  1. create table login(
  2. uid BIGINT ,logindate STRING
  3. ) LIFECYCLE 1;
  4. INSERT INTO login VALUES
  5. (1,'2019-08-01')
  6. ,(1,'2019-08-02')
  7. ,(1,'2019-08-03')
  8. ,(2,'2019-08-01')
  9. ,(2,'2019-08-02')
  10. ,(3,'2019-08-01')
  11. ,(3,'2019-08-03')
  12. ,(4,'2019-07-28')
  13. ,(4,'2019-07-29')
  14. ,(4,'2019-08-01')
  15. ,(4,'2019-08-02')
  16. ,(4,'2019-08-03');

  1. --思路
  2. --1、先排序 升序
  3. --2、通过date_sub计算时间差
  4. --3、通过date_sub时间差+用户id 分组计算 每次连续登录次数
  5. --4、通过用户id分组 获取最大连续登录次数
  6. SELECT uid
  7. ,MAX(loginCount)
  8. FROM (
  9. SELECT uid
  10. ,subdate
  11. ,COUNT(logindate) loginCount
  12. FROM (
  13. SELECT uid
  14. ,logindate
  15. ,date_sub(logindate,rk) subdate
  16. FROM (
  17. SELECT uid
  18. ,logindate
  19. ,ROW_NUMBER() OVER(PARTITION BY uid ORDER BY logindate ASC) rk
  20. FROM login
  21. ) A
  22. ) B
  23. GROUP BY uid
  24. ,subdate
  25. ) C
  26. group by uid
  27. ;

结果:

uid    _c1
1    3
2    2
3    1
4    3
 

10、使用hive的hql实现男女各自第一名及其它

id sex chinese_s math_s
0 0 70 50
1 0 90 70
2 1 80 90
1、男女各自语文第一名(0:男,1:女)

不需要取id的话

select 

sex

,max(chinese_s)

from t 

group by sex

需要取id的话

select 

iD

,sex

,max(chinese_s) over(partition by sex)

from t 


2、男生成绩语文大于80,女生数学成绩大于70

select *

from t 

where (sex=1 and chinese_s>80) or (sex=0 and math_s>70)

11、使用hive的hql实现最大连续访问天数

log_time uid
2018-10-01 18:00:00,123
2018-10-02 18:00:00,123
2018-10-02 19:00:00,456
2018-10-04 18:00:00,123
2018-10-04 18:00:00,456
2018-10-05 18:00:00,123
2018-10-06 18:00:00,123 

参考9 

12、编写sql实现行列互换

行转列:

1、使用case when 查询出多列即可,即可增加列。

列转行:

1、lateral view explode(),使用炸裂函数可以将1列转成多行,被转换列适用于array、map等类型。 lateral view posexplode(数组),如有排序需求,则需要索引。将数组炸开成两行(索引 , 值),需要 as 两个别名。

2、case when 结合concat_ws与collect_set/collect_list实现。内层用case when,外层用 collect_set/list收集,对搜集完后用concat_ws分割连接形成列。

13、编写sql实现如下:

数据:
t1表
uid tags
1 1,2,3
2 2,3
3 1,2
编写sql实现如下结果:
uid tag
1 1
1 2
1 3
2 2
2 3
3 1
3 2

  1. create TABLE tags(
  2. uid bigint ,tags STRING
  3. ) LIFECYCLE 1;
  4. INSERT INTO tags VALUES
  5. (1, '1,2,3')
  6. ,(2, '2,3')
  7. ,(3, '1,2');
  8. SELECT uid
  9. ,tag
  10. FROM tags
  11. LATERAL VIEW EXPLODE(split(tags,",")) temp AS tag
  12. ;

14、用户标签连接查询

数据:
T1表:
Tags
1,2,3
1,2
2,3
T2表:
Id lab
1 A
2 B
3 C
根据T1和T2表的数据,编写sql实现如下结果:
ids tags
1,2,3 A,B,C
1,2 A,B
2,3 B,C

预期结果:

  1. SELECT collect_list(id) as ids
  2. ,WM_CONCAT(',',name) as labs
  3. FROM (
  4. SELECT tag
  5. ,rk
  6. FROM (
  7. SELECT *
  8. ,ROW_NUMBER() OVER (PARTITION BY 1) AS rk
  9. FROM tags
  10. ) tags
  11. LATERAL VIEW EXPLODE(split(tags,",")) temp AS tag
  12. ) A
  13. LEFT JOIN (
  14. SELECT 1 AS id
  15. ,'A' AS name
  16. UNION ALL
  17. SELECT 2 AS id
  18. ,'B' AS name
  19. UNION ALL
  20. SELECT 3 AS id
  21. ,'C' AS name
  22. ) B
  23. ON A.tag = B.id
  24. group by rk
  25. ;

 

15、用户标签组合 

数据:
t1表:
id tag flag
a b 2
a b 1
a b 3
c d 6
c d 8
c d 8
编写sql实现如下结果:
id tag flag
a b 1|2|3
c d 6|8

预期结果:

  1. SELECT
  2. id,tag,WM_CONCAT("|",flag)
  3. from
  4. (select 'a' as id, 'b' as tag, 2 as flag union all
  5. select 'a' as id, 'b' as tag, 1 as flag union all
  6. select 'a' as id, 'b' as tag, 3 as flag union all
  7. select 'c' as id, 'd' as tag, 6 as flag union all
  8. select 'c' as id, 'd' as tag, 8 as flag union all
  9. select 'c' as id, 'd' as tag, 8 as flag ) temp
  10. group by id,tag;

 

16、户标签行列互换

数据:
t1表
uid name tags
1 goudan chihuo,huaci
2 mazi sleep
3 laotie paly
编写sql实现如下结果:
uid name tag
1 goudan chihuo
1 goudan huaci
2 mazi sleep
3 laotie paly

炸裂函数~~

17、hive实现词频统计

数据:
t1表:
uid contents
1 i|love|china
2 china|is|good|i|i|like
统计结果如下,如果出现次数一样,则按照content名称排序:
content cnt
i 3
china 2
good 1
like 1
love 1
is 1

  1. SELECT tag
  2. ,COUNT(id)
  3. FROM (
  4. SELECT id
  5. ,tag
  6. FROM (
  7. SELECT 1 AS id
  8. ,'i|love|china' AS tags
  9. UNION
  10. SELECT 2 AS id
  11. ,'china|is|good|i|i|like'
  12. ) temp
  13. LATERAL VIEW EXPLODE (split(tags,'\\|')) temp1 AS tag --|需要转义
  14. )
  15. GROUP BY tag
  16. ORDER BY COUNT(id) DESC
  17. ,tag DESC
  18. ;

 

18、课程行转列

数据:
t1表
id course
1,a
1,b
1,c
1,e
2,a
2,c
2,d
2,f
3,a
3,b
3,c
3,e
根据编写sql,得到结果如下(表中的1表示选修,表中的0表示未选修):
id a b c d e f
1 1 1 1 0 1 0
2 1 0 1 1 0 1
3 1 1 1 0 1 0

  1. SELECT
  2. id
  3. ,max(case when course='a' then 1 else 0 end ) as a
  4. ,max(case when course='b' then 1 else 0 end ) as b
  5. ,max(case when course='c' then 1 else 0 end ) as c
  6. ,max(case when course='d' then 1 else 0 end ) as d
  7. ,max(case when course='e' then 1 else 0 end ) as e
  8. ,max(case when course='f' then 1 else 0 end ) as f
  9. FROM
  10. (select 1 as id ,'a' as course union all
  11. select 1 as id ,'b' as course union all
  12. select 1 as id ,'c' as course union all
  13. select 1 as id ,'e' as course union all
  14. select 2 as id ,'a' as course union all
  15. select 2 as id ,'c' as course union all
  16. select 2 as id ,'d' as course union all
  17. select 2 as id ,'f' as course union all
  18. select 3 as id ,'a' as course union all
  19. select 3 as id ,'b' as course union all
  20. select 3 as id ,'c' as course union all
  21. select 3 as id ,'e' as course ) temp
  22. group by id;

 

19、兴趣行转列

t1表
name    sex  hobby
janson  男 打乒乓球、游泳、看电影
tom      男 打乒乓球、看电影

hobby最多3个值,使用hql实现结果如下:
name   sex    hobby1    hobby2    hobby3
janson  男     打乒乓球   游泳       看电影
tom      男     打乒乓球  看电影

  1. SELECT name
  2. ,sex
  3. ,max(split(hobby,'、')[0]) AS hobby1
  4. ,max(split(hobby,'、')[1]) AS hobby2
  5. ,max(split(hobby,'、')[2]) AS hobby3
  6. FROM (
  7. SELECT 'janson' AS name
  8. ,'男' AS sex
  9. ,'打乒乓球、游泳、看电影' AS hobby
  10. UNION ALL
  11. SELECT 'tom   ' AS name
  12. ,'男' AS sex
  13. ,'打乒乓球、看电影' AS hobby
  14. ) temp
  15. GROUP BY name
  16. ,sex
  17. ;

name    sex    hobby1    hobby2    hobby3
janson    男    打乒乓球    游泳    看电影
tom       男    打乒乓球    看电影    \N
 

20、用户商品行列互换

t1表:
用户 商品
A P1
B P1
A P2
B P3
请你使用hql变成如下结果:1代表购买过的商品0代表未购买
用户 P1 P2 P3
A 1 1 0
B 1 0 1

参考18,选修课

21、求top3英雄及其pick率

id names
1 亚索,挖掘机,艾瑞莉娅,洛,卡莎
2 亚索,盖伦,奥巴马,牛头,皇子
3 亚索,盖伦,艾瑞莉娅,宝石,琴女
4 亚素,盖伦,赵信,老鼠,锤石
请用 HiveSQL 计算出出场次数最多的 top3 英雄及其 pick 率(=出现场数/总场数)

  1. SELECT
  2. name
  3. ,COUNT(1) 出现次数
  4. ,COUNT(1)/max(id) pick率
  5. from
  6. (SELECT
  7. id,name
  8. from
  9. (select 1 as id, '亚索,挖掘机,艾瑞莉娅,洛,卡莎' as names UNION all
  10. select 2 as id, '亚索,盖伦,奥巴马,牛头,皇子' UNION all
  11. select 3 as id, '亚索,盖伦,艾瑞莉娅,宝石,琴女' UNION all
  12. select 4 as id, '亚索,盖伦,赵信,老鼠,锤石' ) temp
  13. LATERAL VIEW EXPLODE (split(names,',')) temp1 as name
  14. ) group by name
  15. ;

name    出现次数    pick率
亚索    4    1.0
卡莎    1    1.0
奥巴马    1    0.5
宝石    1    0.3333333333333333
挖掘机    1    1.0
洛    1    1.0
牛头    1    0.5
琴女    1    0.3333333333333333
皇子    1    0.5
盖伦    3    0.75
老鼠    1    0.25
艾瑞莉娅    2    0.6666666666666666
赵信    1    0.25
锤石    1    0.25 

21、使用hive求出两个数据集的差集

数据
t1表:
id name
1 zs
2 ls
t2表:
id name
1 zs
3 ww
结果如下:
id name
2 ls
3 ww

SELECT tab4.*
FROM tab4
LEFT JOIN tab5 ON tab4.id=tab5.id
WHERE tab5.id IS NULL
UNION
SELECT tab5.*
FROM tab5
LEFT JOIN tab4 ON tab4.id=tab5.id
WHERE tab4.id IS NULL;

22、两个表A 和B ,均有key 和value 两个字段,写一个SQL语句, 将B表中的value值置成A表中相同key值对应的value值

A:
key vlaue
k1 123
k2 234
k3 235
B:
key value
k1 111
k2 222
k5 246
使用hive的hql实现,结果是B表数据如下:
k1 123
k2 234
k5 246

 23、有用户表user(uid,name)以及黑名单表Banuser(uid)

1、用left join方式写sql查出所有不在黑名单的用户信息
2、用not exists方式写sql查出所有不在黑名单的用户信息

24、使用什么来做的cube 

使用with cube 、 with rollup 或者grouping sets来实现cube。

详细解释如下:

0、hive一般分为基本聚合和高级聚合

基本聚合就是常见的group by,高级聚合就是grouping set、cube、rollup等。

一般group by与hive内置的聚合函数max、min、count、sum、avg等搭配使用。

1、grouping sets可以实现对同一个数据集的多重group by操作。

事实上grouping sets是多个group by进行union all操作的结合,它仅使用一个stage完成这些操作。

grouping sets的子句中如果包换() 数据集,则表示整体聚合。多用于指定的组合查询。

2、cube俗称是数据立方,它可以时限hive任意维度的组合查询。

即使用with cube语句时,可对group by后的维度做任意组合查询

如:group a,b,c with cube ,则它首先group a,b,c 然后依次group by a,c 、 group by b,c、group by a,b 、group a 、group b、group by c、group by () 等这8种组合查询,所以一般cube个数=2^3个。2是定 值,3是维度的个数。多用于无级联关系的任意组合查询。

3、rollup是卷起的意思,俗称层级聚合,相对于grouping sets能指定多少种聚合,而with rollup则表示从左 往右的逐级递减聚合,如:group by a,b,c with rollup 等价于 group by a, b, c grouping sets( (a, b, c), (a, b), (a), ( )).直到逐级递减为()为止,多适用于有级联关系的组合查询,如国家、省、市级联组合查 询。

4、Grouping__ID在hive2.3.0版本被修复过,修复后的发型版本和之前的不一样。对于每一列,如果这列 被聚合 过则返回0,否则返回1。应用场景暂时很难想到用于哪儿。

5、grouping sets/cube/rollup三者的区别: 注: grouping sets是指定具体的组合来查询。 with cube 是group by后列的所有的维度的任意组合查询。

with rollup 是group by后列的从左往右逐级递减的层级组合查询。 cube/rollup 后不能加()来选择列,hive是要求这样。

25、访问日志正则提取

表t1(注:数据时正常的访问日志数据,分隔符全是空格)
8.35.201.160 - - [16/May/2018:17:38:21 +0800] "GET
/uc_server/data/avatar/000/01/54/22_avatar_middle.jpg HTTP/1.1" 200 5396
使用hive的hql实现结果如下:
ip dt url
8.35.201.160 2018-5-16 17:38:21
/uc_server/data/avatar/000/01/54/22_avatar_middle.jpg

 26、30日内留存、留存率计算

假设我们有一个名为user_activity的表,它记录了App用户的活动信息。表结构如下:

user_activity ( user_id INT, -- 用户ID activity_time TIMESTAMP, -- 活动发生时间 activity_type VARCHAR(255) -- 活动类型 -- 可能还有其他字段,但本题仅考虑上述字段 )

求30日内留存量与留存率

  1. select
  2. logindate
  3. ,count(distinct user_id) 新增用户数DNC
  4. ,count(distinct case when days=1 then user_id else null end) as 次日留存量
  5. ,count(distinct case when days=1 then user_id else null end)/count(user_id) as 次日留存率
  6. ,count(distinct case when days=3 then user_id else null end) as 3日留存量
  7. ,count(distinct case when days=3 then user_id else null end)/count(user_id) as 3日留存率
  8. ,count(distinct case when days=7 then user_id else null end) as 7日留存量
  9. ,count(distinct case when days=7 then user_id else null end)/count(user_id) as 7日留存率
  10. ,count(distinct case when days=30 then user_id else null end) as 30日留存量
  11. ,count(distinct case when days=30 then user_id else null end)/count(user_id) as 30日留存率
  12. from
  13. (select
  14. A.user_id,
  15. A.activity_time as logindate
  16. datediff(a.activity_time,b.activity_time,'dd') days
  17. (select user_id,activity_time,activity_type 
  18. from   user_activity where activity_type ='注册'
  19. and datediff(getdate(),activity_time,'dd')<=30) A
  20. left join
  21.  (select user_id,activity_time,activity_type 
  22. from   user_activity where activity_type ='登录'
  23. and datediff(getdate(),activity_time,'dd')<=30) B
  24. On a.user_id=b.user_id
  25. and a.activity_time<=b.activity_time
  26. ) C
  27. group by logindate

日期新增用户数DNC次日留存用户数次日留存率7日留存用户数7日留存率30日留存用户数30日留存率
202204308,0991,04012.84%5827.19%3864.77%
2022042911,0771,0499.47%5314.79%3312.99%
202204289,0981,10612.16%5185.69%3824.20%
202204278,11189010.97%3704.56%2372.92%
202204267,37295312.93%4496.09%3014.08%
202204257,35199413.52%4606.26%3134.26%
202204246,0341,00616.67%5428.98%3756.21%
202204235,81095416.42%4547.81%3115.35%
202204226,98886812.42%4406.30%2653.79%
202204216,64985312.83%3775.67%2423.64%
202204206,30484413.39%3896.17%2183.46%
202204196,71586812.93%4476.66%2924.35%
日期
20220430
20220429
20220428
20220427
20220426
20220425
20220424
20220423
20220422
20220421
20220420
20220419
新增用户数DNC
8,099
11,077
9,098
8,111
7,372
7,351
6,034
5,810
6,988
6,649
6,304
6,715
次日留存用户数
1,040
1,049
1,106
890
953
994
1,006
954
868
853
844
868
次日留存率
12.84%
9.47%
12.16%
10.97%
12.93%
13.52%
16.67%
16.42%
12.42%
12.83%
13.39%
12.93%
7日留存用户数
582
531
518
370
449
460
542
454
440
377
389
447
7日留存率
7.19%
4.79%
5.69%
4.56%
6.09%
6.26%
8.98%
7.81%
6.30%
5.67%
6.17%
6.66%
30日留存用户数
386
331
382
237
301
313
375
311
265
242
218
292
30日留存率
4.77%
2.99%
4.20%
2.92%
4.08%
4.26%
6.21%
5.35%
3.79%
3.64%
3.46%
4.35%

27、计算每个品牌总的打折销售天数

如下为平台商品促销数据:字段为品牌,打折开始日期,打折结束日期
brand    stt            edt
oppo    2021-06-05    2021-06-09
oppo    2021-06-11    2021-06-21
vivo    2021-06-05    2021-06-15
vivo    2021-06-09    2021-06-21
redmi    2021-06-05    2021-06-21
redmi    2021-06-09    2021-06-15
redmi    2021-06-17    2021-06-26
huawei    2021-06-05    2021-06-26
huawei    2021-06-09    2021-06-15
huawei    2021-06-17    2021-06-21
计算每个品牌总的打折销售天数,注意其中的交叉日期,比如vivo品牌,第一次活动时间为2021-06-05到2021-06-15,
第二次活动时间为2021-06-09到2021-06-21其中9号到15号为重复天数,只统计一次,
即vivo总打折天数为2021-06-05到2021-06-21共计17天。

  1. create table t_brand (brand STRING , stt STRING ,edt STRING ) LIFECYCLE 1;
  2. INSERT INTO t_brand VALUES
  3. ('oppo' ,'2021-06-05', '2021-06-09')
  4. ,('oppo' ,'2021-06-11', '2021-06-21')
  5. ,('vivo' ,'2021-06-05', '2021-06-15')
  6. ,('vivo' ,'2021-06-09', '2021-06-21')
  7. ,('redmi' ,'2021-06-05', '2021-06-21')
  8. ,('redmi' ,'2021-06-09', '2021-06-15')
  9. ,('redmi' ,'2021-06-17', '2021-06-26')
  10. ,('huawei' ,'2021-06-05', '2021-06-26')
  11. ,('huawei' ,'2021-06-09', '2021-06-15')
  12. ,('huawei' ,'2021-06-17', '2021-06-21');
  13. -- 思路一:
  14. -- 既然是交叉问题,那每个品牌都可能有这样的问题,我们观察完数据,第一反应就是能不能把同一个品牌在某段时间有交叉日期的数据标记出来,
  15. -- 然后再用group by 根据品牌和标记出来的字段分组,这样我们就可以把某段时间有交叉日期的数据分到同一个组,然后我们就可以用该分组内
  16. -- 打折结束日期的最大值减去打折开始日期的最小值,就可以得到某个时间段的打折天数,然后最终我们就可以根据不同的品牌计算出总天数。具体看下面HQL
  17. -- 思路二:
  18. -- 按照品牌字段分组,stt字段从小到大排序,如果不存在交叉数据,那么头一条数据的结束时间一定要比第二条的开始时间小,如以上数据的oppo品牌。
  19. -- 那么出现交叉数据的问题,肯定就是头一条数据的结束时间一定要比第二条的开始时间大。所以如果这条数据的开始时间都要比这条数据的之前的结束时间大,
  20. -- 那么这样就不会存在交叉的数据问题了。按照这个思路,我们创建一个新的开始时间new_stt,如果开始时间stt这个字段和前面数据不存在交叉问题,
  21. -- 那么我们就用stt字段充当new_stt,如果和前面的数据存在交叉问题,那么我们用前面数据的结束日期的最大值+1来充当new_stt字段。
  22. -- 这样我们用结束时间减去新的开始时间就可以得到打折的天数了,如果结束时间减去开始时间是负数,那么这就是出现了交叉问题的数据,我们直接忽略掉就可以。
  23. select
  24. brand,
  25. sum(diff) days
  26. from
  27. (
  28. select
  29. brand,
  30. datediff(max(edt),min(stt))+1 diff
  31. from
  32. (
  33. select
  34. *,
  35. sum(f) over (partition by brand order by stt) su
  36. from
  37. (
  38. select
  39. *,
  40. max(edt) over(partition by brand order by stt rows between unbounded preceding and 1 preceding),
  41. if(datediff(max(edt) over(partition by brand order by stt rows between unbounded preceding and 1 preceding),stt)>=0,0,1) f
  42. from t_brand
  43. )t1
  44. )t2
  45. group by brand,su
  46. )t3
  47. group by brand;
  48. select
  49. brand,
  50. sum(if(diff>0,diff+1,0)) days
  51. from
  52. (
  53. select
  54. brand,
  55. datediff(edt,new_stt) diff
  56. from
  57. (
  58. select
  59. brand,
  60. stt,
  61. if(datediff(m,stt)>0,date_add(m,1),stt) new_stt,
  62. edt
  63. from
  64. (
  65. select
  66. *,
  67. max(edt) over(partition by brand order by stt rows between unbounded preceding and 1 preceding) m
  68. from t_brand
  69. )t1
  70. )t2
  71. )t3
  72. group by brand;

28、对于同一个id的数据,需要计算主键id外,任意两列之间的关系,两列均为1,关系为1,否则为0

表t
id,a,b,c,d,e
00001,0,1,1,0,1
00002,......

结果示例如下
id,c1,c2,relation
00001,a,b,0
00001,a,c,0
00001,a,d,0
00001,a,e,0
00001,b,c,1
00001,b,d,0
00001,b,e,1
00001,c,d,0
00001,c,e,1
00001,d,e,0
00002,......

声明:本文内容由网友自发贡献,转载请注明出处:【wpsshop博客】
推荐阅读
相关标签
  

闽ICP备14008679号