当前位置:   article > 正文

HDFS基本命令_hdfs查看文件内容命令

hdfs查看文件内容命令

目录

1.上传文件到HDFS文件系统

2.-appendToFile:追加一个文件到已经存在的文件末尾 

3.查看HDFS文件系统中的文件

4.查看上传到HDFS文件系统中指定文件的内容

5.从HDFS文件系统下载指定文件,并存放在指定文件中

6.删除HDFS文件系统中的指定文件

7.创建目录

8.创建多级目录

9.递归删除目录下的所有文件

10.删除指定目录

11. -chgrp、-chmod、-chown:Linux文件系统中的用法一样,修改文件所属权限

12.-cp:从HDFS的一个路径拷贝到HDFS的另一个路径

13.-mv:在HDFS目录中移动文件

14.-tail:显示一个文件的末尾1kb的数据

15.-du统计文件夹的大小信息

16.-setrep:设置HDFS中文件的副本数量

17.start-all.sh启动了两套系统

18.安全模式操作

19.启动历史服务

20.查看文件机架信息

21.查看hdfs上的文件行数

22.查看hdfs上压缩文件内容


HDFS副本机制:

Bolck:数据块

        HDFS最基本的存储单元

        默认块大小:128M(2.x)

副本机制

        作用:避免数据丢失

        副本数默认为3

存放机制:

        1.一个在本地机架节点

        2.副本在同一个机架不同节点

        3.一个在不同机架的节点

HDFS优点:

        高容错性、适合大数据处理、流式数据访问、可构建在廉价的机器上

HDFS缺点:

        不适合低延时数据访问场景、不适合小文件存取场景、不适合并发写入,文件随机修改场景 

HDFS基本命令:

1.上传文件到HDFS文件系统

  1. [root@lxm147 opt]# hdfs dfs -put ./testfile.txt /
  2. [root@lxm147 opt]# hdfs dfs -put ./aa.txt /KB21/tt

2.-appendToFile:追加一个文件到已经存在的文件末尾 

  1. [atguigu@hadoop102 hadoop-3.1.3]$ vim liubei.txt
  2. 输入:
  3. liubei
  4. [atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -appendToFile liubei.txt /sanguo/shuguo.txt

3.查看HDFS文件系统中的文件

  1. [root@lxm147 opt]# hdfs dfs -ls /
  2. [root@lxm147 opt]# hdfs dfs -ls /KB21/tt

4.查看上传到HDFS文件系统中指定文件的内容

[root@lxm147 opt]# hdfs dfs -cat /testfile.txt

5.从HDFS文件系统下载指定文件,并存放在指定文件中

[root@lxm147 opt]# hdfs dfs -get /testfile.txt ./aa.txt

6.删除HDFS文件系统中的指定文件

[root@lxm147 opt]# hdfs dfs -rm /testfile.txt

7.创建目录

[root@lxm147 opt]# hdfs dfs -mkdir /bigdata

8.创建多级目录

[root@lxm147 opt]# hdfs dfs -mkdir -p /aa/bb

9.递归删除目录下的所有文件

[root@lxm147 opt]# hdfs dfs -rm -R /KB21/tt

10.删除指定目录

[root@lxm147 opt]# hdfs dfs -rm -r /bigdata

11. -chgrp、-chmod、-chown:Linux文件系统中的用法一样,修改文件所属权限

  1. [atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -chmod 666 /sanguo/shuguo.txt
  2. [atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -chown atguigu:atguigu /sanguo/shuguo.txt

12.-cp:从HDFS的一个路径拷贝到HDFS的另一个路径

[atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -cp /sanguo/shuguo.txt /jinguo

13.-mv:在HDFS目录中移动文件

  1. [atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -mv /sanguo/wuguo.txt /jinguo
  2. [atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -mv /sanguo/weiguo.txt /jinguo

14.-tail:显示一个文件的末尾1kb的数据

[atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -tail /jinguo/shuguo.txt

15.-du统计文件夹的大小信息

  1. [atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -du -s -h /jinguo
  2. 27 81 /jinguo
  3. [atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -du -h /jinguo
  4. 14 42 /jinguo/shuguo.txt
  5. 7 21 /jinguo/weiguo.txt
  6. 6 18 /jinguo/wuguo.tx

16.-setrep:设置HDFS中文件的副本数量

[atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -setrep 10 /jinguo/shuguo.txt

这里设置的副本数只是记录在NameNode的元数据中,是否真的会有这么多副本,还得看DataNode的数量。因为目前只有3台设备,最多也就3个副本,只有节点数的增加到10台时,副本数才能达到10。 

17.start-all.sh启动了两套系统

  1. [root@lxm147 sbin]# start-dfs.sh
  2. [root@lxm147 sbin]# stop-dfs.sh

  1. [root@lxm147 sbin]# start-yarn.sh
  2. [root@lxm147 sbin]# stop-yarn.sh

 

18.安全模式操作

安全模式所有的hdfs报错

  1. # 获取当前是否为安全模式
  2. [root@lxm147 mapreduce]# hdfs dfsadmin -safemode get
  3. # 离开安全模式
  4. [root@lxm147 mapreduce]# hdfs dfsadmin -safemode leave
  5. # 进入安全模式
  6. [root@lxm147 mapreduce]# hdfs dfsadmin -safemode enter

19.启动历史服务

  1. [root@lxm147 ~]# mr-jobhistory-daemon.sh start historyserver
  2. WARNING: Use of this script to start the MR JobHistory daemon is deprecated.
  3. WARNING: Attempting to execute replacement "mapred --daemon start" instead.
  4. [root@lxm148 ~]# jps
  5. 4546 SecondaryNameNode
  6. 6370 JobHistoryServer
  7. 4164 NameNode
  8. 4804 ResourceManager
  9. 4937 NodeManager
  10. 6393 Jps
  11. 4302 DataNode

http://lxm147:9870

http://lxm147:8042

http://lxm147:8088

http://lxm147:19888

20.查看文件机架信息

  1. hdfs fsck <文件路径> -files -blocks -locations -racks
  2. # 这里的文件路径不要写到具体的文件,写到文件的上级目录即可,否则会报错
  3. # 例如/bigdata目录下有文件,则不需要写到具体的文件
  4. hdfs fsck /bigdata -files -blocks -locations -racks
  1. [root@node141 data]# hdfs dfs -ls /xx/yy/
  2. Found 1 items
  3. -rw-r--r-- 3 root supergroup 33 2023-07-21 08:41 /xx/yy/student.txt
  4. [root@node141 data]# hdfs dfs -cat /xx/yy/student.txt
  5. 001 zhangsan
  6. 002 lisi
  7. 003 wangwu

21.查看hdfs上的文件行数

  1. hdfs dfs -cat test.txt | wc -l
  2. hdfs dfs -text test.txt.gz | wc -l

22.查看hdfs上压缩文件内容

hdfs dfs -text test.txt
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/我家自动化/article/detail/581442
推荐阅读
相关标签
  

闽ICP备14008679号