当前位置:   article > 正文

大数据hive篇--hive优化_hive数据量太大跑不动

hive数据量太大跑不动

Hive 优化

核心思想:把Hive SQL 当做Mapreduce程序去优化
以下SQL不会转为Mapreduce来执行

select仅查询本表字段
where仅对本表字段做条件过滤
select 和 where 是不会转为mr来执行
Explain 显示执行计划
EXPLAIN [EXTENDED] query

Hive运行方式:
本地模式 将数据抓取到本地 计算
集群模式 计算向数据移动 主要耗费时间是 提交任务 和 yarn 资源管理

本地模式
开启本地模式:
set hive.exec.mode.local.auto=true; 测试可以用

注意:
hive.exec.mode.local.auto.inputbytes.max默认值为128M
表示加载文件的最大值,若大于该配置仍会以集群方式来运行!

并行计算 hive默认是没有开启的
通过设置以下参数开启并行模式:
set hive.exec.parallel=true;
注意:hive.exec.parallel.thread.number
(一次SQL计算中允许并行执行的job个数的最大值)

注意: sql 任务之间 是不能互相有影响的才能使用并行计算 计算机压力也会压力大一点
严格模式 一般会打开
通过设置以下参数开启严格模式:
—防止用户误操作
set hive.mapred.mode=strict;
(默认为:nonstrict非严格模式)
查询限制:
1、对于分区表,必须添加where对于分区字段的条件过滤; 优化查询
2、order by语句必须包含limit输出限制; 这样就使得性能不会耗费太多
3、限制执行笛卡尔积的查询。

Hive排序
1、Order By - 对于查询结果做全排序,只允许有一个reduce处理
(当数据量较大时,应慎用。严格模式下,必须结合limit来使用)
2、Sort By - 对于单个reduce的数据进行排序
Distribute By - 分区排序,经常和Sort By结合使用(Distribute By+Sort By 相当于 全排序)
3、Cluster By - 相当于 Sort By + Distribute By
(Cluster By不能通过asc、desc的方式指定排序规则;
可通过 distribute by column sort by column asc|desc 的方式)

Hive Join
Join计算时,将小表(驱动表)放在join的左边
Map Join:在Map端完成Join

优先将小表加载到内存里 不至于 太耗费内存
小表放左边

两种实现方式:
1、SQL方式,在SQL语句中添加MapJoin标记(mapjoin hint)
语法:
SELECT /*+ MAPJOIN(smallTable) */ smallTable.key, bigTable.value
FROM smallTable JOIN bigTable ON smallTable.key = bigTable.key;
2、开启自动的MapJoin 自动检查

split map shuffle reduce
shuffle是非常耗费资源的 所以 join 最好咋split map完成
怎么实现?
小表加载到内存中 大表一行一行的读取 如果有相同的 map就直接输出 这样就完成了

自动的mapjoin
通过修改以下配置启用自动的mapjoin:
set hive.auto.convert.join = true;
(该参数为true时,Hive自动对左边的表统计量,如果是小表就加入内存,即对小表使用Map join)
相关配置参数:
hive.mapjoin.smalltable.filesize;
(大表小表判断的阈值,如果表的大小小于该值则会被加载到内存中运行)
hive.ignore.mapjoin.hint;
(默认值:true;是否忽略mapjoin hint 即mapjoin标记)
hive.auto.convert.join.noconditionaltask;
(默认值:true;将普通的join转化为普通的mapjoin时,是否将多个mapjoin转化为一个mapjoin)
hive.auto.convert.join.noconditionaltask.size;
(将多个mapjoin转化为一个mapjoin时,其表的最大值)

Map-Side聚合 — 相当于mr的combiner
通过设置以下参数开启在Map端的聚合:
set hive.map.aggr=true;

相关配置参数:
1、hive.groupby.mapaggr.checkinterval:
map端group by执行聚合时处理的多少行数据(默认:100000) 可以设置合理数字
2、hive.map.aggr.hash.min.reduction:
进行聚合的最小比例(预先对100000条数据做聚合,若聚合之后的数据量/100000的值大于该配置0.5,则不会聚合 )
3、hive.map.aggr.hash.percentmemory:
map端聚合使用的内存的最大值
4、hive.map.aggr.hash.force.flush.memory.threshold:
map端做聚合操作是hash表的最大可用内容,大于该值则会触发flush
5、hive.groupby.skewindata
是否对GroupBy产生的数据倾斜做优化,默认为false
解决数据倾斜问题 实现思路:
一个mr 会分成两个mr 来做
第一个mr : map 随机分发 reduce 获取到是比较均匀 局部聚合 count
第二个mr : map 自己的规则 (数据已经不是特别大了) reduce的压力不会太大

控制Hive中Map以及Reduce的数量
Map数量相关的参数 – map一般不会改
mapred.max.split.size
一个split的最大值,即每个map处理文件的最大值
mapred.min.split.size.per.node
一个节点上split的最小值
mapred.min.split.size.per.rack
一个机架上split的最小值

改map的思路:
改变切片就行 改变切片就是 相当于改变 map 因为一个切片就是一个map
split 切片规则:
如果一个map处理文件最大值是64M 但是一个block是70M 剩下6M 的数据 和 其他节点剩下的数据 全部会作为一个split

Reduce数量相关的参数 – reduce 可以动 根据集群来定
mapred.reduce.tasks
强制指定reduce任务的数量
hive.exec.reducers.bytes.per.reducer
每个reduce任务处理的数据量
hive.exec.reducers.max
每个任务最大的reduce数

Hive - JVM重用
适用场景:
1、小文件个数过多
2、task个数过多
通过 set mapred.job.reuse.jvm.num.tasks=n; 来设置 (n为task插槽个数)

缺点:
设置开启之后,task插槽会一直占用资源,不论是否有task运行,直到所有的task即整个job全部执行完成时,才会释放所有的task插槽资源!

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/你好赵伟/article/detail/396219
推荐阅读
相关标签
  

闽ICP备14008679号