赞
踩
平时在跑数据时,需要在查询语句前设置一些set语句,这些set语句中其中有一些是配置hive的各功能,另一些是可以达到优化的目的,本篇文章对一些常用的set语句进行总结
set hive.cli.print.header=true; --默认为false,不打印表头
set hive.cli.print.current.db=true; --默认为false,不显示当前数据库名字
false
,然后再进行查询,才能统计出准确的数据set hive.compute.query.using.stats=false; --默认为true,使用元数据中的统计信息,提升查询效率
select * from talbe_xxx limit 100
set hive.fetch.task.conversion=more;
set mapreduce.job.queuename=root.db; --运维人员设置的队列名字
strict
,防止大量数据计算占用资源,多出现在笛卡尔积join时;或者查询的是分区表,但没有指定分区,明明sql语句没有逻辑错误,但是一直报错无法运行,可以尝试修改为非严格模式,看是否能运行set hive.mapred.mode=nonstrict; --nonstrict,strict
with as
形式查询的话,可以设置一下这个,来提升效率set hive.optimize.cte.materialize.threshold=1;
MapReduce引擎:多job串联,基于磁盘,落盘的地方比较多。虽然慢,但一定能跑出结果。一般处理,周、月、年指标。
Spark引擎:虽然在Shuffle过程中也落盘,但是并不是所有算子都需要Shuffle,尤其是多算子过程,中间过程不落盘 DAG有向无环图。 兼顾了可靠性和效率。一般处理天指标。
Tez引擎:完全基于内存。 注意:如果数据量特别大,慎重使用。容易OOM。一般用于快速出结果,数据量比较小的场景。
set hive.execution.engine=mr; --mr、tez、spark
set hive.exec.parallel=true; --开启任务并行执行
set hive.exec.parallel.thread.number=8; -- 同一个sql允许并行任务的最大线程数
set hive.exec.max.dynamic.partitions=1000 -- 在所有执行MR的节点上,最大一共可以创建多少个动态分区。
set hive.exec.max.dynamic.partitions.pernode=100 -- 在每个执行MR的节点上,最大可以创建多少个动态分区
set hive.auto.convert.join = false; --取消小表加载至内存中
set hive.mapjoin.smalltable.filesize=25000000; --设置小表大小
以上是自己实践中遇到的一些问题,分享出来供大家参考学习,欢迎关注微信公众号:DataShare ,不定期分享干货
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。