赞
踩
1.当启动hadoop时候,执行sh start-dfs.sh时报错
解决方案:将sh start-dfs.sh改成 ./start-dfs.sh即可通过。
2.当用hadoop fs -ls / 的时候出现 hadoop: command not found的问题
解决方案:环境变量设置(vim /etc/peofile 将hadoop的安装目录加入到环境变量中)。
export JAVA_HOME=/usr/local/src/jdk1.8.0_121
export JRE_HOME=$JAVA_HOME/jre
export CLASSPATH=$JAVA_HOME/lib:$CLASSPATH
export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:/hadoop/hadoop-2.7.0/bin:$PATH
最后注意用source /etc/profile让配置文件立即生效。
配置完后用hadoop fs -ls / 检查hdfs目录下的文件(一定记住hadoop fs -ls / 的“/”)
如果说显示为空,可以自己利用 hadoop fs -mkdir /test 在hdfs根目录下创建一个文件。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。