赞
踩
1.-bash: hadoop: command not found
解决:
首先检查自己hadoop文件是否成功上传解压放在了指定目录下,再查看自己的/etc/profile文件下是否把HADOOP_HOME的环境变量配好了,注意文件目录是否写对。
2.在配置Hadoop环境的过程中出现错误:Error:Invalid HADOOP_COMMON_HOME
解决:我是在启动hadoop时候报的这个错再到node1找错误才找到1的,所以要是在1错误后出现这个报错信息就去找你的 hadoop-env.sh
多半是 这里面export HADOOP_HOME=写的有问题
这里面需要配JAVA_HOME的绝对路径可以顺带一起吧HADOOP_HOME配了吧
3.Starting namenodes on [master]
ERROR: Attempting to operate on hdfs namenode as root
ERROR: but there is no HDFS_NAMENODE_USER defined. Aborting operation.
解决:
启动hadoop出现这个报错呢,去/hadoop/sbin路径下将start-dfs.sh,stop-dfs.sh,start-yarn.sh,stop-yarn.sh配好,检查是不是写错了
4.启动hadoop
[root@master sbin]# start-all.sh
node1: Permission denied (publickey,gssapi-keyex,gssapi-with-mic,password).
node2: Permission denied (publickey,gssapi-keyex,gssapi-with-mic,password).
localhost: nodemanager is running as process 3328. Stop it first.
解决:
1)在start-dfs.sh stop-dfs.sh start-yarn.sh stop-yarn.sh中是否进行了用户名的配置。
在start-dfs.sh 和 stop-dfs.sh中增加如下内容:
#!/usr/bin/env bash
HDFS_DATANODE_USER=root
HDFS_DATANODE_SECURE_USER =hdfs
HDFS_NAMENODE_USER=root
HDFS_SECONDARYNAMENODE=USER=root
在start-yarn.sh 和 stop-yarn.sh中中增加如下内容:
#!/usr/bin/env bash
YARN_RESOURCEMANAGER_USER=root
HADOOP_SECURE_DN_USER=yarn
YARN_NODEMANAGER_USER=root
2) 免密那块内容是否做好。
在每个节点尝试如下三条命令尝试,是否能够直接进入其他节点
ssh master
ssh node1
ssh node2
4.启动后无法访问web界面
关防火墙,多关几遍!
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。