赞
踩
目录
3:上传文件 put(要先把数据上传到linux本地然后再上传)
7:移动 mv, 物理层面文件没有移动,只是改变了元数据(目录结构)
hadoop -dfs -mkdir 目录(需要从根目录开始)
例如:在根目录创建一个data目录
hadoop -dfs -mkdir /data
hadoop -dfs -mkdir -p 目录递归创建目录
例如:在根目录下创建一个/a/b/c
hadoop -dfs -mkdir -p /a/b/c
注意:如果配置ip地址映射的话可以用主机名:50070到浏览器查看hdfs的详情
例如我的是master就是master:50070(前提是开启的hadoop集群命令是start-all.sh)
在Browse the file system中查看
例如:查看根目录
hadoop dfs -ls /
在上传过程中可以改名字
例如:将本地一个学生表上传到hdfs中
1:创建目录(/data目录已经存在)
hadoop dfs -mkdir /data/student
2:将 students.txt: linux上传到本地并且切换到文件所在目录(利用xftp传输文件,从widows中传到linux)
3:上传文件到hdfs
hadoop dfs -put students.txt /data/student
hadoop dfs -put students.txt /data/student /student.txt 改名字为student.txt
注意:传到本地是传到linux系统里,然后再从linux上传到hdfs中
将hdfs文件下载到linux本地 可以指定目录 不指定默认是当前目录
例如:将/data/student/students.txt 下载到本地
hadoop dfs -get /data/student/students.txt 下载到当前目录
hadoop dfs -get /data/student/students.txt /usr/local/data 下载到 /usr/local/data
可以将指定文件复制到指定目录 可以在复制时更改名字
例如:将/data/a.txt 移动到 /
hadoop dfs -cp /data/a.txt /
hadoop dfs -cp /data/a.txt /c.txt 将文件复制到根目录并改名字
例如:查看stdents .txt文件
hadoop dfs -cat /data/student/students.txt
例如 将根目录下文件a.txt移动到a目录下
hadoop dfs -mv /a.txt /a
hadoop dfs -mv /a.txt /a/b.txt 移动目录并更改名字
hadoop dfs -rm /a/a.txt删除文件
hadoop dfs -rmr /a 删除目录
并没有真正删除文件,只是将文件放到了回收站中,
/user/root/.Trash/Current ; 每一个用户都有一个回收站
文件永久删除:
1、回收站自动清理
fs.trash.interval
1440
2、手动删除回收站
Hadoop dfs -rmr /user/root/.Trash/Current
3、强制删除,-skipTrash 当需要删除的文件比较大的时候
hadoop dfs -rmr -skipTrash /a
注意:最好不要永久删除或者强制删除以免数据丢失
例如:查看 /data/student/students.txt
hadoop dfs -tail /data/student/students.txt
例如:查看 /data 大小
hadoop dfs -du -h /data
切换到/usr/local/soft/hadoop-2.7.6/logs
使用命令cat hadoop-root-namenode-master.log
hadoop dfsadmin -safemode get 命令是用来查看当前hadoop安全模式的开关状态
hadoop dfsadmin -safemode enter 命令是打开安全模式
hadoop dfsadmin -safemode leave 命令是离开安全模式
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。