赞
踩
- hive> select current_database();
- OK
- test2
- hive> create table test_user(
- > id int,
- > name string
- > )
- > row format delimited
- > fields terminated by ',' #以逗号作为列的分隔
- > lines terminated by '\n' #以换行符\n作为行的分隔
- > stored as textfile;
- OK
- Time taken: 2.613 seconds
- [root@hadoop01 ~]# pwd
- /root
- [root@hadoop01 ~]# cat t_user.txt
- 1,Tom
- 2,Bob
- 3,Lily
- 4,Alice
使用hdfs命令将linux本地数据文件上传至hdfs中我们创建的数据库下面的表目录下面:
[root@hadoop01 ~]# hdfs dfs -put t_user.txt /user/hive/warehouse/test2.db/test_user
这个目录我们可以从HDFS ui上找到我们的表对应的目录直接拷贝:
上
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。