赞
踩
hdfs常用命令:
i)马克-to-win @ 马克java社区:防盗版实名手机尾号:73203。 hdfs dfs -mkdir /user 会在hadoop的根目录下创建一个目录。可以通过hdfs dfs -ls / 来查。
或者可以查50070里的utilities。
ii)在bin目录下,继续:
hdfs dfs -put README.txt / (把本地README.txt上传到hadoop的根目录。)
某个目录上传到某个目录: hdfs dfs -put d:/test.txt /user
看根目录:bin\hdfs dfs -ls /
看某一个目录:hdfs dfs -ls /user
删除一个目录(不管空不空):hdfs dfs -rm -r /user
删除文件: hdfs dfs -rm /README.txt
hdfs dfs -cat /README.txt
iii)提交一个任务,
退到hadoop根目录:bin\yarn jar .\share\hadoop\mapreduce\hadoop-mapreduce-examples-2.7.4.jar wordcount /README.txt /out
以上命令,会运行wordcount程序,计算/README.txt文件中字数。
注意:想成功运行以上命令,mapred-site.xml一定是缺省空的配置。
更多请看下节:http://www.mark-to-win.com/tutorial/mydb_Hadoop_hdfsCommonCommand.html
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。