赞
踩
既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,涵盖了95%以上大数据知识点,真正体系化!
由于文件比较多,这里只是将部分目录截图出来,全套包含大厂面经、学习笔记、源码讲义、实战项目、大纲路线、讲解视频,并且后续会持续更新
hive> select * from mb_tmp.yz_1013 limit 100;
OK
yz_1013.test_id yz_1013.work_place yz_1013.other yz_1013.dt
10011 beijing chushi 2022-10-10
10012 tianjin changchun 2022-10-10
10013 zhengzhou siji 2022-10-10
100014 zhangda job 2022-10-10
Time taken: 0.51 seconds, Fetched: 4 row(s)
hive> select other,‘****’,dt,work_place,test_id from mb_tmp.yz_1013 limit 100;
OK
other c1 dt work_place test_id
chushi **** 2022-10-10 beijing 10011
changchun **** 2022-10-10 tianjin 10012
siji **** 2022-10-10 zhengzhou 10013
job **** 2022-10-10 zhangda 100014
Time taken: 0.356 seconds, Fetched: 4 row(s)
### **5、参考:** **1)、Hive多字符分隔符支持**[https://baijiahao.baidu.com/s?id=1617938645018071295&wfr=spider&for=pc]( ) **2、Hive在0.14及以后版本支持字段的多分隔符,官方文档**https://cwiki.apache.org/confluence/display/Hive/MultiDelimitSerDe **3、Hive中的自定义分隔符(包含Hadoop和Hive详细安装)** https://blog.csdn.net/github\_39577257/article/details/89020980 ### 6、Hive 自带的多字符分割使用demo2 默认情况下,Hive对于分隔符只支持单字符,不过Hive自带一个工具jar包,这个包支持正则和多字符方式定义分隔符。 **1). 查询hive自带的工具jar包位置** find / -name hive-contrib-\*.jar **2). 将上面搜索到的jar包配置到配置hive-site.xml文件中 <property> <name>hive.aux.jars.path</name> <value>file:///opt/apache-hive-1.2.2-bin/lib/hive-contrib-1.2.2.jar</value> <description>Added by tiger.zeng on 20120202.These JAR file are available to all users for all jobs</description> </property>** **上面配置之后可以不用重启Hive服务,只需要重新进入Hive CLI就可生效,且是永久的。也可以配置为临时的,就是在进入Hive CLI后,临时加载这个jar包,执行如下:** hive> add jar file:///opt/apache-hive-1.2.2-bin/lib/hive-contrib-1.2.2.jar **3). 使用** 准备如下数据,分隔符为 |#|, > > 3324|#|003|#|20190816 09:16:18|#|0.00|#|2017-11-13 12:00:00 > 3330|#|009|#|20190817 15:21:03|#|1234.56|#|2017-11-14 12:01:00 > > > 建表时如下声明与定义如下,并加载数据,查询数据: > > drop table if exists split\_test; > CREATE TABLE split\_test( > id INT COMMENT '借阅查询ID', > number STRING COMMENT '流水号', > `date` STRING COMMENT '查询返回日期', > loanamount DOUBLE COMMENT '借款金额范围', > createtime TIMESTAMP COMMENT '创建时间' > )ROW FORMAT SERDE 'org.apache.hadoop.hive.contrib.serde2.MultiDelimitSerDe' > WITH SERDEPROPERTIES ("field.delim"="|#|") > STORED AS TEXTFILE; > > > --加载数据 LOAD DATA LOCAL INPATH '/root/split\_test.txt' OVERWRITE INTO TABLE split\_test; 查询结果如下: --查询数据 hive> select \* from split\_test; OK 3324 003 20190816 09:16:18 0.0 2017-11-13 12:00:00 3330 009 20190817 15:21:03 1234.56 2017-11-14 12:01:00 Time taken: 0.11 seconds, Fetched: 2 row(s) ### 7、Hive 自定义分隔符例子 **自定义部分使用 Java 编写,使用Idea新建一个 Maven项目。** https://blog.csdn.net/github\_39577257/article/details/89020980 ### **8、hive特殊分隔符,不可见的分隔符 枚举** > > 1.hive默认字段分隔符**^A**(使用vim文本编辑显示),常用**ASCII八进制 '\001'** 或者**UNICODE编码十六进制 '\u0001'** 进行设置;通过notepad++打开显示为**SOH** > > > 2.hive特殊分隔符**^B**(使用vim文本编辑显示),常用**ASCII八进制 '\002'** 或者**UNICODE编码十六进制 '\u0002'** 进行设置;通过notepad++打开显示为**STX** > > > 3.hive特殊分隔符**^C**(使用vim文本编辑显示),常用**ASCII八进制 '\003'** 或者**UNICODE编码十六进制 '\u0003'** 进行设置;通过notepad++打开显示为**ETX**· > > > 此外,不同编程语音使用hive中\u0001、\0001、\0010、\u0010等分隔符切割需要不同写法 > > 以‘\u0010’为例 > hive sql使用split函数时,如果字段内使用的是特殊[分隔符]( )()需要用split(xxx,‘\u0010’)才能正常切割。 > 如果是使用java写mr代码,那么需要使用的是"\0010" > > > ### 9、hive分隔符\_HIVE-默认分隔符的(linux系统的特殊字符)查看,输入和修改 [hive表分隔符修改实操(兼容sqoop)\_hive修改分隔符-CSDN博客]( )_hive修改分隔符-CSDN博客") > > #修改分隔符为逗号 , > > > ALTER TABLE table\_name SET SERDEPROPERTIES ('field.delim' = ',' , 'serialization.format'=','); > > > #修改分隔符为\001,在linux的vim中显示为^A,是hive默认的分隔符 > > > ALTER TABLE table\_name SET SERDEPROPERTIES ('field.delim' = '\001' , 'serialization.format'='\001'); > > > #修改分隔符为制表符\t > > > ALTER TABLE table\_name SET SERDEPROPERTIES ('field.delim' = '\t' , 'serialization.format'='\t'); > > > 重点知识: field.delim 指定表的两个列字段之间的文件中的字段分隔符. serialization.format 指定数据文件序列化时表中两个列字段之间的文件中的字段分隔符. 对于分区表,每个分区可以有不同的分隔符属性 alter语法修改分区表的分隔符后,不会影响已有分区数据读写,只会对后续新写入的数据生效。这一点非常友好 alter语法修改分隔符只针对于后续新增数据有效,拿分区表而言,比如现在有2个分区,day=2020-05-01,day=2020-05-02,分隔符是\t, 通过alter把分隔符改为\001,再写入写的分区day=2020-05-03 可以通过desc formatted tablename partition(key=value)语法查看每个分区的分隔符,那么2020-05-01,2020-05-02的分区依然是\t分隔符,2020-05-03分区的分隔符是\001;而且可以通过hive正常读写操作这三个分区而不会出现任何问题 通过desc formatted table查看该表的分隔符,发现已经变为\001 ### 10、hive列分隔符和行分隔符概述 一)、Hive中默认的分割符如下 | 分隔符 | 描述 | | --- | --- | | \n | 对于文本文件来说,每行都是一条记录,因此换行符可以分隔记录 | | ^A(Ctrl+A) | 用于分隔字段(列)。在CREATE TABLE语句中可以使用八进制编码\001表示 | | ^B | 用于分隔ARRAY或者STRUCT中的元素,或用于MAP中键-值对之间的分隔。在CREATE TABLE语句中可以使用八进制编码\002表示 | | ^C | 用于MAP中键和值之间的分隔。在CREATE TABLE语句中可以使用八进制编码\003表示 | 二)、分隔符的指定与使用 hive中在创建表时,一般会根据导入的数据格式来指定字段分隔符和列分隔符。一般导入的文本数据字段分隔符多为逗号分隔符或者制表符(但是实际开发中一般不用着这种容易在文本内容中出现的的符号作为分隔符),当然也有一些别的分隔符,也可以自定义分隔符。有时候也会使用hive默认的分隔符来存储数据。
hive (fdm_sor)> create table fdm_sor.mytest_tmp2(
> id int comment’编号’,
> name string comment ‘名字’
> );
hive (fdm_sor)> show create table mytest_tmp2;
CREATE TABLE mytest_tmp2
(
id
int COMMENT ‘编号’,
name
string COMMENT ‘名字’)
ROW FORMAT SERDE
‘org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe’ --hive默认的分割方式,即行为\n,列为^A
STORED AS INPUTFORMAT
‘org.apache.hadoop.mapred.TextInputFormat’ --hive默认的存储格式为textfile
OUTPUTFORMAT
‘org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat’
LOCATION --内部表的默认的存储路径
‘hdfs://hadoop102:9000/user/hive/warehouse/fdm_sor.db/mytest_tmp2’
TBLPROPERTIES (
‘transient_lastDdlTime’=‘1526176805’)
hive (fdm_sor)> create table fdm_sor.mytest_tmp3(
> id int comment’编号’,
> name string comment ‘名字’
> )
> row format delimited
> fields terminated by ‘\001’ --这里可以指定别的分隔符,如‘\t’,'$'等分隔符
> COLLECTION ITEMS TERMINATED BY ‘\002’ – 集合间的分隔符
> MAP KEYS TERMINATED BY ‘\003’ – Map键与值之间的分隔符
> LINES TERMINATED BY ‘\n’ – 行分隔符
> stored as textfile; – 存储格式为textfile
hive (fdm_sor)> show create table fdm_sor.mytest_tmp3;
OK
createtab_stmt
CREATE TABLE fdm_sor.mytest_tmp3
(
id
int COMMENT ‘编号’,
name
string COMMENT ‘编号’)
ROW FORMAT DELIMITED
FIELDS TERMINATED BY ‘\u0001’
LINES TERMINATED BY ‘\n’
STORED AS INPUTFORMAT
‘org.apache.hadoop.mapred.TextInputFormat’
OUTPUTFORMAT
‘org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat’
LOCATION
‘hdfs://hadoop102:9000/user/hive/warehouse/fdm_sor.db/mytest_tmp3’
TBLPROPERTIES (
‘transient_lastDdlTime’=‘1526176859’)
-注意:`ROW FORMAT DELIMITED这组关键字必须要写在其他子句(除了STORED AS…)子句之前。`
如上可以看出hive默认的列分割类型为org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe,
而这其实就是^A分隔符,hive中默认使用^A(ctrl+A)作为列分割符,如果用户需要指定的话,等同于row format delimited fields terminated by '\001',因为^A八进制编码体现为'\001'.所以如果使用默认的分隔符,可以什么都不加,也可以按照上面的指定加‘\001’为列分隔符,效果一样。
hive默认使用的行分隔符是'\n'分隔符 ,也可以加一句:LINES TERMINATED BY '\n' ,加不加效果一样。但是区别是hive可以通过row format delimited fields terminated by '\t'这个语句来指定不同的分隔符,但是hive不能够通过LINES TERMINATED BY '$$'来指定行分隔符,**目前为止,hive的默认行分隔符仅支持‘\n’字符。**否则报错。
hive (fdm_sor)> create table fdm_sor.mytest_tm4(
> id int comment’编号’,
> name string comment ‘名字’
> )
> lines terminated by ‘\t’;
FAILED: ParseException line 5:1 missing EOF at ‘lines’ near ‘)’
一般来说hive的默认行分隔符都是换行符,如果非要自定义行分隔符的话,可以通过自定义Inputformat和outputformat类来指定特定行分隔符和列分隔符,一般公司实际开发中也都是这么干的,具体使用。 当然如hive中集合数据类型struct ,map,array,也都有默认的字段分隔符,也都可以指定字段分隔符。hive中对于上述三个集合数据类型的默认字段分隔符是^B,八进制体现为‘\002’,用collection items terminated by '\002'语句来指定分隔符,对于map来说,还有键值之间的分割符,可以用map keys terminated by '\003'(^C)来指定分隔符。 ![img](https://img-blog.csdnimg.cn/img_convert/cf63c28ea3b3c10f10ce8e1239980dab.png) ![img](https://img-blog.csdnimg.cn/img_convert/37b4665585ee0890c35bccf3afeeacb5.png) ![img](https://img-blog.csdnimg.cn/img_convert/60728e2f8cfca738b481673ae1255402.png) **既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,涵盖了95%以上大数据知识点,真正体系化!** **由于文件比较多,这里只是将部分目录截图出来,全套包含大厂面经、学习笔记、源码讲义、实战项目、大纲路线、讲解视频,并且后续会持续更新** **[需要这份系统化资料的朋友,可以戳这里获取](https://bbs.csdn.net/forums/4f45ff00ff254613a03fab5e56a57acb)** g-uXJltBJd-1715325430007)] [外链图片转存中...(img-uJce2OmB-1715325430007)] **既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,涵盖了95%以上大数据知识点,真正体系化!** **由于文件比较多,这里只是将部分目录截图出来,全套包含大厂面经、学习笔记、源码讲义、实战项目、大纲路线、讲解视频,并且后续会持续更新** **[需要这份系统化资料的朋友,可以戳这里获取](https://bbs.csdn.net/forums/4f45ff00ff254613a03fab5e56a57acb)**
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。