当前位置:   article > 正文

Hadoop集群搭建过程问题总结_强制格式化集群以后为啥namesecondary里还有current

强制格式化集群以后为啥namesecondary里还有current

1.datanode节点无法启动
(1)无法与slave是通信
检查slaves文件slave节点名称是否正确
检查防火墙是否关闭(使用setup命令关闭防火墙,iptables -F 命令有时会失效,chkconfig IPtables on 命令需重启生效)
检查/etc/hosts 是否配置正确
(2)clusterID不匹配
DataNode与namenode中的clusterID不匹配:~/hadoopdata/dfs/namesecondary/current/VERSION中clusterID修改为namenode中的clusterID。
当我们执行文件系统格式化时,会在namenode数据文件夹(即配置文件中dfs.name.dir在本地系统的路径)中保存一个current/VERSION文件,记录namespaceID,标识了所格式化的 namenode的版本。如果我们频繁的格式化namenode,那么datanode中保存(即配置文件中dfs.data.dir在本地系统的路径)的current/VERSION文件只是你第一次格式化时保存的namenode的ID,因此就会造成datanode与namenode之间的id不一致。
2.hbase-1.0.2启动成功,但无法访问master:60010
在hbase-site.xml中添加
<property>
<name>hbase.master.info.port</name>
<value>60010</value>
</property>

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/繁依Fanyi0/article/detail/634160
推荐阅读
相关标签
  

闽ICP备14008679号