赞
踩
目录
2.-appendToFile:追加一个文件到已经存在的文件末尾
11. -chgrp、-chmod、-chown:Linux文件系统中的用法一样,修改文件所属权限
12.-cp:从HDFS的一个路径拷贝到HDFS的另一个路径
HDFS副本机制:
Bolck:数据块
HDFS最基本的存储单元
默认块大小:128M(2.x)
副本机制
作用:避免数据丢失
副本数默认为3
存放机制:
1.一个在本地机架节点
2.副本在同一个机架不同节点
3.一个在不同机架的节点
HDFS优点:
高容错性、适合大数据处理、流式数据访问、可构建在廉价的机器上
HDFS缺点:
不适合低延时数据访问场景、不适合小文件存取场景、不适合并发写入,文件随机修改场景
HDFS基本命令:
- [root@lxm147 opt]# hdfs dfs -put ./testfile.txt /
-
- [root@lxm147 opt]# hdfs dfs -put ./aa.txt /KB21/tt
- [atguigu@hadoop102 hadoop-3.1.3]$ vim liubei.txt
- 输入:
- liubei
-
- [atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -appendToFile liubei.txt /sanguo/shuguo.txt
- [root@lxm147 opt]# hdfs dfs -ls /
-
- [root@lxm147 opt]# hdfs dfs -ls /KB21/tt
[root@lxm147 opt]# hdfs dfs -cat /testfile.txt
[root@lxm147 opt]# hdfs dfs -get /testfile.txt ./aa.txt
[root@lxm147 opt]# hdfs dfs -rm /testfile.txt
[root@lxm147 opt]# hdfs dfs -mkdir /bigdata
[root@lxm147 opt]# hdfs dfs -mkdir -p /aa/bb
[root@lxm147 opt]# hdfs dfs -rm -R /KB21/tt
[root@lxm147 opt]# hdfs dfs -rm -r /bigdata
- [atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -chmod 666 /sanguo/shuguo.txt
- [atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -chown atguigu:atguigu /sanguo/shuguo.txt
[atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -cp /sanguo/shuguo.txt /jinguo
- [atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -mv /sanguo/wuguo.txt /jinguo
- [atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -mv /sanguo/weiguo.txt /jinguo
[atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -tail /jinguo/shuguo.txt
- [atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -du -s -h /jinguo
- 27 81 /jinguo
-
- [atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -du -h /jinguo
- 14 42 /jinguo/shuguo.txt
- 7 21 /jinguo/weiguo.txt
- 6 18 /jinguo/wuguo.tx
[atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -setrep 10 /jinguo/shuguo.txt
这里设置的副本数只是记录在NameNode的元数据中,是否真的会有这么多副本,还得看DataNode的数量。因为目前只有3台设备,最多也就3个副本,只有节点数的增加到10台时,副本数才能达到10。
- [root@lxm147 sbin]# start-dfs.sh
-
- [root@lxm147 sbin]# stop-dfs.sh
- [root@lxm147 sbin]# start-yarn.sh
-
- [root@lxm147 sbin]# stop-yarn.sh
安全模式所有的hdfs报错
- # 获取当前是否为安全模式
- [root@lxm147 mapreduce]# hdfs dfsadmin -safemode get
-
- # 离开安全模式
- [root@lxm147 mapreduce]# hdfs dfsadmin -safemode leave
-
- # 进入安全模式
- [root@lxm147 mapreduce]# hdfs dfsadmin -safemode enter
- [root@lxm147 ~]# mr-jobhistory-daemon.sh start historyserver
- WARNING: Use of this script to start the MR JobHistory daemon is deprecated.
- WARNING: Attempting to execute replacement "mapred --daemon start" instead.
- [root@lxm148 ~]# jps
- 4546 SecondaryNameNode
- 6370 JobHistoryServer
- 4164 NameNode
- 4804 ResourceManager
- 4937 NodeManager
- 6393 Jps
- 4302 DataNode
http://lxm147:9870
http://lxm147:8042
http://lxm147:8088
http://lxm147:19888
- hdfs fsck <文件路径> -files -blocks -locations -racks
- # 这里的文件路径不要写到具体的文件,写到文件的上级目录即可,否则会报错
-
-
- # 例如/bigdata目录下有文件,则不需要写到具体的文件
- hdfs fsck /bigdata -files -blocks -locations -racks
- [root@node141 data]# hdfs dfs -ls /xx/yy/
- Found 1 items
- -rw-r--r-- 3 root supergroup 33 2023-07-21 08:41 /xx/yy/student.txt
-
-
- [root@node141 data]# hdfs dfs -cat /xx/yy/student.txt
- 001 zhangsan
- 002 lisi
- 003 wangwu
- hdfs dfs -cat test.txt | wc -l
-
- hdfs dfs -text test.txt.gz | wc -l
hdfs dfs -text test.txt
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。