赞
踩
目录
Hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供类SQL查询功能,适合离线数据处理。
直接使用hadoop很难受,如 学习成本太高、MapReduce实现复杂查询逻辑时的开发难度太大。
hive解决了这方面问题:接口采用类SQL语法(避免了去写MapReduce),提供快速开发的能力
Hive利用HDFS存储数据,利用MapReduce查询数据
总结:hive具有sql数据库的外表,但应用场景完全不同,hive只适合用来做批量数据统计分析
ps: 类似MySQL
1、Hive中所有的数据都存储在 HDFS 中,没有专门的数据存储格式(可支持Text,SequenceFile,ParquetFile,RCFILE等)
2、只需要在创建表的时候告诉 Hive 数据中的列分隔符和行分隔符,Hive 就可以解析数据。
3、Hive 中包含以下数据模型:DB、Table,External Table,Partition,Bucket。
- db:在hdfs中表现为${hive.metastore.warehouse.dir}目录下一个文件夹
-
- table:在hdfs中表现所属db目录下一个文件夹
-
- external table:外部表, 与table类似,不过其数据存放位置可以在任意指定路径
-
- 普通表: 删除表后, hdfs上的文件都删了
-
- External外部表删除后, hdfs上的文件没有删除, 只是把文件删除了
-
- partition:在hdfs中表现为table目录下的子目录
-
- bucket:桶, 在hdfs中表现为同一个表目录下根据hash散列之后的多个文件, 会根据不同的文件把数据放到不同的文件中
-
-
- 1)对于每一个表(table)或者分区, Hive可以进一步组织成桶,也就是说桶是更为细粒度的数据范围划分。
-
- 2)Hive也是 针对某一列进行桶的组织。Hive采用对列值哈希,然后除以桶的个数求余的方式决定该条记录存放在哪个桶当中。
- 1、分区表的建表:
-
- create table TEST_TABLE
-
- (
-
- Field1 STRING COMMENT '字段1'
-
- ,Field2 STRING COMMENT '字段2'
-
- ,Field3 DECIMAL(18,7) COMMENT '字段3'
-
- ,Field4 INT COMMENT '字段4'
-
- ,Field5 DATE COMMENT '字段5'
-
- ,Field6 SMALLINT COMMENT '字段6'
-
- )
-
- COMMENT '测试表'
-
- PARTITIONED BY
-
- (PRT_DT STRING COMMENT '分区日期'
- )
-
- STORED AS Orc;
-
- 2、非分区表的建表:
-
- create table TEST_TABLE_NO
-
- (
-
- Field1 STRING COMMENT '字段1'
-
- ,Field2 STRING COMMENT '字段2'
-
- ,Field3 DECIMAL(18,7) COMMENT '字段3'
-
- ,Field4 INT COMMENT '字段4'
-
- ,Field5 DATE COMMENT '字段5'
-
- ,Field6 SMALLINT COMMENT '字段6'
-
- )
-
- COMMENT '测试表NO'
-
- STORED AS Orc
-
- ;
-
-
- 3、删除表 DROP TABLE TEST_TABLE;
-
- 4、清空表 truncate table source_city_list_pr_date_creator;
-
- 5、插入数据
-
- --1、分区表插入数据
- 1)INSERT INTO TABLE TEST_TABLE PARTITION (PRT_DT = '2021-02-18')VALUES ('11','22',33,44,'2021-02-05',66);
-
- 2)静态分区方式,从另一个表插入数据
-
- INSERT INTO TABLE TEST_TABLE PARTITION (PRT_DT = '2021-02-20') SELECT * FROM TEST_TABLE_NO;
- --2、非分区表插入数据
-
- INSERT INTO TABLE TEST_TABLE_NO VALUES ('1','2',3,4,'2021-02-05',6);
-
-
- 6、删除一个分区数据
- ALTER TABLE table_name DROP PARTITION (dt='20200909');
- 7、删除多个分区数据
- ALTER TABLE table_name DROP PARTITION (dt >="20200901",dt <='20200930')
- 8、删除多字段分区
- ALTER TABLE table_name DROP PARTITION (dt='2020901', hour='10');
-
- 9、 删除分区内部的部分数据,这时使用重写方式对满足条件的分区进行 overwrite 操作,并通过 where 来限定需要的信息,未过滤的的信息将被删除
-
- insert overwrite table table_name partition(partition_name='value')
- select column1,column2,column2 FROM table_name
- where partition_name='value' and column2 is not null
-
-
- 10、设置分区大小
-
- set hive.exec.dynamic.partition=true;
- set hive.exec.dynamic.partition.mode=nonstrict;
- set hive.exec.max.dynamic.partitions.pernode=10000;
- set hive.exec.max.dynamic.partitions=100000;
-
- 11、查看分区
- show partitions tableName;
-
-
- 12、查看表信息
-
- show create table tableName;
- desc tableName
-
- 13、从csv导入数据/加载数据
-
- load data inpath '/user/test/test1.csv' into table source_city_list_pr_date_creator;
- load data inpath '/test/pt_hour=2022072400' into table ods_binlog_test partition (dt='2022072400')
-
-
- 14、重命名表:
-
- --ALTER TABLE [原表名] RENAME TO [新表名]
-
- ALTER TABLE TEST_TABLE RENAME TO TEST_TABLE2;
1、order by order by是与关系型数据库的用法是一样的。select * from emp order by empno desc;
针对全局数据进行排序,所以最终只会有1个reduce,因为一个reduce对应一个输出文件,全局排序的话只能有一个输出文件,这个是不受hive的参数控制的。如果要查询的结果集数据量比较大的话,只有一个reduce运行,那么效率会非常低,所以在实际应用中一定要谨慎使用order by。
2、sort by 对每一个reduce内部进行排序,而对全局结果集来说是没有进行排序的。
1)一般在实际使用中会比较经常使用sort by。2)需要先设置reduce的数量; 设置执行时reduce的个数: set mapreduce.job.reduces=<number> 查询语句为: select * from emp sort by empno asc;
3)可以看到每个输出结果的文件中的数据都是按empno进行排好序的。
3、distribute by 类似于MapReduce中的partition的功能,对数据进行分区排序,一般和sort by结合进行使用。 以员工表为例,按照部门进行排序的查询语句写法如下: insert overwrite local directory '/opt/datas/distby-res' select * from emp distribute by deptno sort by empno asc
注意,distribute by必须要在sort by之前,原因是要先进行分区,然后才能进行排序。第一个文件的部门编号是30,第二个文件的部门编号是10,第三个部门编号是20。然后每个部门的员工数据都是按照员工编号进行升序排列的。
4、cluster by
cluster by是sort by和distribute by的组合,当sort by和distribute by的字段相同的时候,可以使用cluster by替代。1)参考查询语句如下: insert overwrite local directory '/opt/datas/clustby-res' select * from emp cluster by empno ;
2)注意,cluster by 后面不能指定desc或者asc,否则会报错。
总结:
order by : 全局排序,一个reduce
sort by: 每个reduce内部排序,全局不排序
distribute by:分区排序,需要结合sort by使用
cluster by: 当sort by和distribute by的字段相同的时候使用
更新数据:
频繁的update和delete操作已经违背了hive的初衷。不到万不得已的情况,还是使用增量添加的方式最好。
方法1:
insert overwrite table table1
select id,修改后的内容 as cols from table1 where id = 你修改行的id ----------先弄出你要修改的那个增量行
union all --------最后合并起来就得到所有的行
select * from table1 where id !=你想修改的内容的所在id ----------然后弄出排除旧行所剩余的所有行
方法2:用select 字段值 字段插入一条数据到表里
https://www.cnblogs.com/meirenyu/p/16575306.html
•静态分区(static partition)
•动态分区(dynamic partition)
两者的区别:
主要在于静态分区需要手动指定,而动态分区是基于查询参数的位置去推断分区的名称,从而建立分区。
总的来说就是,静态分区的列是在编译时期通过用户传递来决定的;动态分区只有在SQL执行时才能确定。
- round(double a) ceil(double a)
-
- upper(string A) lower(string A)
-
- trim(string A)
-
- year(string date) month(string date) day(string date)
-
- sum(col), sum(DISTINCT col)
- count(*), count(expr),
- min(col) max(col)
一个或少数reduce task处理的数据量远超其他task,即存在数据热点。
Join/GroupBy/CountDistinct,在存在热点key(例如某个字段存在大量空值)的时候,都会导致一个或少数reduce task处理的数据量远超其他task
根据mapreduce架构的原理,会按照key把不同的数据hash到不同的reduce task,当存在数据热点时,就会导致某些reduce task处理的数据量远远超过其他task(几倍乃至数十倍),最终表现为少量reduce task执行长尾,任务整体进度长时间卡在99%或者100%。
map join是指将做连接的小表全量数据分发到作业的map端进行join,从而避免reduce task产生数据倾斜;
通常是在输入数据量不大,但是由于计算逻辑复杂导致作业执行时间特别长
当sql的输入数据量太大,导致map task个数特别多,虽然每个task执行时间都不长,但是由于计算资源有限,在资源紧张的时候,一个作业内的多个task只能分批串行执行,导致资源调度开销成为任务执行时间过长的主要因素
1、查询语言不同:hive是hql语言,mysql是sql语句;
2、数据存储位置不同:hive是把数据存储在hdfs上,而mysql数据是存储在自己的系统中;
3、数据格式:hive数据格式可以用户自定义,mysql有自己的系统定义格式;
4、数据更新:hive不支持数据更新,只可以读,不可以写,而sql支持数据更新;
5、索引:hive没有索引(支持分区),因此查询数据的时候是通过mapreduce很暴力的把数据都查询一遍,也造成了hive查询数据速度很慢的原因,而mysql有索引;
6、延迟性:hive延迟性高,原因就是上边一点所说的,而mysql延迟性低;
7、数据规模:hive存储的数据量超级大,而mysql只是存储一些少量的业务数据;
8、底层执行原理:hive底层是用的mapreduce,而mysql是excutor执行器;
9、事务: hive不支持事务
0) Hive内部表的管理既包含逻辑以及语法上的,也包含实际物理意义上的
1)Hive 默认情况下会将这些表的数据存储在由配置项 hive.metastore.warehouse.dir (/user/hive/warehouse) 定义的目录下。
2)删除管理表时,Hive 会删除元数据(msyql中的数据)和HDFS中的数据.
数据将真实存在于表所在的目录内,删除内部表时,物理数据和文件也一并删除
ps:
create table
0) 其管理仅仅是在逻辑和语法意义上的,即新建表仅仅是指向一个外部目录而已。
1)Hive 并非认为其完全拥有这份数据。
2)删除该表并不会删除掉这份数据,不过描述表的元数据信息会被删除掉。
删除时也并不物理删除外部目录,而仅仅是将引用和定义删除。
ps:
create external table
大多数情况下,这两者的区别不是很明显。
如果数据的所有处理都在Hive中进行,那么更倾向于选择内部表。
如果Hive和其他工具针对相同的数据集做处理,那么外部表更合适。内部表不适合和其他工具共享数据。
一般情况下,在企业内部都是使用外部表的。因为会有多人操作数据仓库,可能会产生数据表误删除操作,为了数据安全性,通常会使用外部表。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。