当前位置:   article > 正文

hadoop shell操作 hdfs处理文件命令 hdfs上传命令 hadoop fs -put命令hadoop fs相关命令 hadoop(十三)_hdfs 上传文本文档的命令

hdfs 上传文本文档的命令

hadoop fs -help rm 查看rm命令作用

hadoop fs 查看命令

1. 创建文件夹

  1. # hdfs前缀也是可以的。更推荐hadoop
  2. hadoop fs -mkdir /sanguo

2.上传至hdfs命令:

   作用: 从本地上传hdfs系统 (本地文件被剪切走,不存在了)

   命令:

  1. # 新建文件
  2. vi shuguo.txt
  3. #进入后 输入一些文字,保存退出即可
  4. #同shuguo.txt要在同目录下,输入命令
  5. hadoop fs -moveFromLocal shuguo.txt /sanguo

 3. 拷贝文件上传到hdfs系统:

  1. #新增文件
  2. vi weiguo.txt
  3. # 输入一些文字,保存并退出
  4. # 从本地复制一份文件,至hdfs文件系统
  5. hadoop fs -copyFromLocal weiguo.txt /sanguo
  6. # 同上相同,更推荐这种,更加简洁
  7. hadoop fs -put weiguo.txt /sanguo

4. 追加文件内容:

  1. # 新建文件
  2. vi liubei.txt
  3. # 输入一些文字,保存并退出
  4. #
  5. hadoop fs -appendToFile liubei.txt /sanguo/shuguo.txt

5. 从hdfs下载至本地:

  1. # copy
  2. hadoop fs -copyToLocal /sanguo/shuguo.txt ./
  3. # 更推荐这种,简洁
  4. # 下载
  5. hadoop fs -get /sanguo/shuguo.txt ./

6. ls命令:

hadoop fs -ls /sanguo

7. cat命令:

hadoop fs -cat /sanguo/shuguo.txt

 8.更改权限:

hadoop fs -chown hadoop:hadoop /sanguo/shuguo.txt

 9. cp 复制:

  1. # 创建文件夹
  2. hadoop fs -mkdir /jinguo
  3. # 复制
  4. hadoop fs -cp /sanguo/shuguo.txt /jinguo

10. mv 移动:

hadoop fs -mv /sanguo/weiguo.txt /jinguo

11. tail 查看

hadoop fs -tail /sanguo/shuguo.txt

12. 删除文件或文件夹

  1. # 删除文件
  2. hadoop fs -rm /sanguo/shuguo.txt
  3. # 递归删除文件夹
  4. hadoop fs -rm -r /sanguo

13. 统计文件夹大小信息:

hadoop fs -du -s -h /sanguo

   27 文件大小81 副本*文件大小

下面是查看文件夹每个文件的统计信息

hadoop fs -du  -h /sanguo

14. 设置副本数量:

hadoop fs -setrep 2 /sanguo/shuguo.txt

  副本数量记录在NameNode,不要设置超过节点数量的副本,设置超过节点数,最多也只是总节点数量的副本,不会超过DataNode节点数, 如果设置8个副本,如果DataNode节点数有8个,才会有8个副本

总结:命令太多不一一列举了,同centos系统一样,只是前面加了hadoop fs, 很容易记住

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/羊村懒王/article/detail/581410
推荐阅读
相关标签
  

闽ICP备14008679号