当前位置:   article > 正文

hadoop之hdfs命令_将linux用户(hadoop)根目录下的downloads文件夹里面的file1.txt,上传到h

将linux用户(hadoop)根目录下的downloads文件夹里面的file1.txt,上传到hdfs系统的

目录

1:创建目录

2、查看文件,ls 没有cd命令, 需要指定绝对路径

3:上传文件 put(要先把数据上传到linux本地然后再上传)

4:下载文件 get

5:复制 cp

6:查看文件内容 cat , 如果数据量比较大,不能使用

7:移动 mv, 物理层面文件没有移动,只是改变了元数据(目录结构)

8:删除文件或者目录 rmr

9:查看文件末尾 tail -f ; 一直等待查看

10、查看文件的大小

11:查看日志

12:安全模式


1:创建目录

hadoop -dfs -mkdir  目录(需要从根目录开始)

例如:在根目录创建一个data目录 

hadoop -dfs -mkdir  /data

hadoop -dfs -mkdir  -p 目录递归创建目录

例如:在根目录下创建一个/a/b/c

hadoop -dfs -mkdir  -p /a/b/c

注意:如果配置ip地址映射的话可以用主机名:50070到浏览器查看hdfs的详情

例如我的是master就是master:50070(前提是开启的hadoop集群命令是start-all.sh)

在Browse the file system中查看

 

 

2、查看文件,ls 没有cd命令, 需要指定绝对路径

例如:查看根目录

hadoop dfs -ls /

 

3:上传文件 put(要先把数据上传到linux本地然后再上传)

在上传过程中可以改名字

例如:将本地一个学生表上传到hdfs

1:创建目录(/data目录已经存在)

hadoop dfs -mkdir /data/student

2:将 students.txt: linux上传到本地并且切换到文件所在目录(利用xftp传输文件,从widows中传到linux)

3:上传文件到hdfs

hadoop dfs -put students.txt /data/student 

hadoop dfs -put students.txt /data/student /student.txt  改名字为student.txt

注意:传到本地是传到linux系统里,然后再从linux上传到hdfs中

4:下载文件 get

将hdfs文件下载到linux本地 可以指定目录 不指定默认是当前目录

例如:将/data/student/students.txt 下载到本地

hadoop dfs -get  /data/student/students.txt  下载到当前目录

hadoop dfs -get  /data/student/students.txt  /usr/local/data   下载到 /usr/local/data 

5:复制 cp

可以将指定文件复制到指定目录 可以在复制时更改名字

例如:将/data/a.txt 移动到 / 

hadoop dfs -cp /data/a.txt   /

hadoop dfs -cp /data/a.txt   /c.txt 将文件复制到根目录并改名字

6:查看文件内容 cat , 如果数据量比较大,不能使用

例如:查看stdents .txt文件

hadoop dfs -cat /data/student/students.txt

7:移动 mv, 物理层面文件没有移动,只是改变了元数据(目录结构)

例如 将根目录下文件a.txt移动到a目录下

hadoop dfs -mv /a.txt /a

hadoop dfs -mv /a.txt /a/b.txt 移动目录并更改名字

8:删除文件或者目录 rmr

hadoop dfs -rm /a/a.txt删除文件

hadoop dfs -rmr /a 删除目录

并没有真正删除文件,只是将文件放到了回收站中,

/user/root/.Trash/Current ; 每一个用户都有一个回收站

文件永久删除:

1、回收站自动清理

fs.trash.interval

1440

2、手动删除回收站

Hadoop dfs -rmr /user/root/.Trash/Current

3、强制删除,-skipTrash 当需要删除的文件比较大的时候

hadoop dfs -rmr -skipTrash /a

注意:最好不要永久删除或者强制删除以免数据丢失

9:查看文件末尾 tail -f ; 一直等待查看(可以用来查看日志)

例如:查看 /data/student/students.txt

hadoop dfs -tail /data/student/students.txt

10、查看文件的大小

例如:查看 /data 大小

hadoop dfs -du -h /data

11:查看日志

切换到/usr/local/soft/hadoop-2.7.6/logs

使用命令cat hadoop-root-namenode-master.log

12:安全模式

hadoop dfsadmin -safemode get 命令是用来查看当前hadoop安全模式的开关状态

hadoop dfsadmin -safemode enter 命令是打开安全模式

hadoop dfsadmin -safemode leave 命令是离开安全模式

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/我家自动化/article/detail/510589
推荐阅读
相关标签
  

闽ICP备14008679号