当前位置:   article > 正文

Hadoop(1)——Hadoop集群构建(10)——启动和关闭Hadoop集群_启动和关闭hadoop集群的方法

启动和关闭hadoop集群的方法

太多了,记得看目录

需要启动的集群:启动HDFS和YARN集群

启动方式:单节点逐个启动 或者 使用脚本一键启动

一、单节点启动、关闭

HDFS进程:

1. 启动HDFS的 namenode

hadoop01中,输入:hadoop-daemon.sh start namenode

 2. 启动HDFS的 datanode

hadoop01中,输入:hadoop-daemon.sh start datanode

 3. 验证启动

hadoop01中,输入:jps

这个命令可以查看和java相关的进程

出现了namenode和datanode就成功了

若启动未成功,转到此文章了解(2条消息) 启动Hadoop集群、启动Hadoop的HDFS失败、namenode启动不了、datanode启动不了、jps后进程只有一个_连胜是我偶像的博客-CSDN博客

4.其他两台主机 不一样设置

只启动 HDFS DataNode进程 --> 验证启动

YARN进程:

1. 启动YARN的 resourcemanager

hadoop01中,输入:yarn-daemon.sh start resourcemanager

 2. 启动YARN的 nodemanager

hadoop01中,输入:yarn-daemon.sh start nodemanager

3. 验证启动

hadoop01中,输入:jps

有这两个进程则成功了

 4.其他两台主机 不一样设置

只启动 YARN NodeManager进程 --> 验证启动

Secondarynamenode进程

1. 启动Secondarynamenode:

在hadoop02中,输入:hadoop-daemon.sh start secondarynamenode

 2.验证启动:

单节点关闭进程

只需要把 start 变成 stop 来运行就可以了

1. 例子:关闭HDFS namenode 进程

在hadoop01中输入:hadoop-daemon.sh stop namenode

2. 验证关闭

输入:jps

已经没有namenode进程了

二、多节点启动、关闭

HDFS进程:

1. 启动HDFS所有进程

在hadoop01上,输入:start-dfs.sh

下面反馈信息表示:已启动hadoop01的namenode,已启动hadoop01、02、03的datanode,已启动hadoop02的seconarynamenode。

2.启动验证

hadoop01中,输入:jps

datanode和namenode已开启

hadoop02中,输入:jps

seconarynamenode和datanode已开启

hdoop03一样验证。

YARN进程:

1. 启动YARN所有进程

在hadoop01上,输入:start-yarn.sh

下面反馈信息表示:已启动hadoop01的resourcmanager,已启动hadoop01、02、03的nodemanager

2.启动验证

hadoop01中,输入:jps

resourcmanager和nodemanager已开启

其他两台虚拟机同样jps一下看看就好。

多节点关闭

只需要把 start 变成 stop 来运行就可以了

1. 例子:关闭HDFS  进程

在hadoop01中输入:stop-yarn.sh

2.验证关闭

输入:jps

 3. YARN一样的操作方法

 -----------------略-----------------

三、一键启动、关闭(不推荐)

1. 启动:

主节点hadoop01上,输入:start-all.sh

第一行会显示不建议用这个指令,这个指令不好用我们了解就好了

验证:

2. 关闭:

主节点hadoop01上,输入:stop-all.sh

验证:

至此,hadoop启动、关闭集群完成。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/Monodyee/article/detail/532033
推荐阅读
相关标签
  

闽ICP备14008679号