赞
踩
太多了,记得看目录
需要启动的集群:启动HDFS和YARN集群
启动方式:单节点逐个启动 或者 使用脚本一键启动
hadoop01中,输入:hadoop-daemon.sh start namenode
hadoop01中,输入:hadoop-daemon.sh start datanode
hadoop01中,输入:jps
这个命令可以查看和java相关的进程
出现了namenode和datanode就成功了
若启动未成功,转到此文章了解(2条消息) 启动Hadoop集群、启动Hadoop的HDFS失败、namenode启动不了、datanode启动不了、jps后进程只有一个_连胜是我偶像的博客-CSDN博客
4.其他两台主机 不一样设置
只启动 HDFS DataNode进程 --> 验证启动
hadoop01中,输入:yarn-daemon.sh start resourcemanager
hadoop01中,输入:yarn-daemon.sh start nodemanager
hadoop01中,输入:jps
有这两个进程则成功了
只启动 YARN NodeManager进程 --> 验证启动
在hadoop02中,输入:hadoop-daemon.sh start secondarynamenode
只需要把 start 变成 stop 来运行就可以了
在hadoop01中输入:hadoop-daemon.sh stop namenode
输入:jps
已经没有namenode进程了
在hadoop01上,输入:start-dfs.sh
下面反馈信息表示:已启动hadoop01的namenode,已启动hadoop01、02、03的datanode,已启动hadoop02的seconarynamenode。
hadoop01中,输入:jps
datanode和namenode已开启
hadoop02中,输入:jps
seconarynamenode和datanode已开启
hdoop03一样验证。
在hadoop01上,输入:start-yarn.sh
下面反馈信息表示:已启动hadoop01的resourcmanager,已启动hadoop01、02、03的nodemanager
hadoop01中,输入:jps
resourcmanager和nodemanager已开启
其他两台虚拟机同样jps一下看看就好。
只需要把 start 变成 stop 来运行就可以了
在hadoop01中输入:stop-yarn.sh
输入:jps
-----------------略-----------------
主节点hadoop01上,输入:start-all.sh
第一行会显示不建议用这个指令,这个指令不好用我们了解就好了
验证:
主节点hadoop01上,输入:stop-all.sh
验证:
至此,hadoop启动、关闭集群完成。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。