当前位置:   article > 正文

关于Hadoop-HA的配置---从零开始_# yarn rmadmin -getservicestate rm2报错

# yarn rmadmin -getservicestate rm2报错

写在文前,可能我说的有不对的地方,希望各位老鸟批评指正,本着虚心接受的态度分享这篇文章!

关于hadoop-ha大家配置的时候可能会遇到这样或者那样的报错,实在很让人头疼,因为操作有点多,也很多人不知道到底要执行的步骤顺序,今天给大家分享一下自己的愚见,我的hadoop是2.5.0的版本。

我们来看看,HA的原理图:


我的集群规划是:

PC01-------------- PC02 -------------------PC03
NameNode------- NameNode
ZKFC-------------- ZKFC
----------------------------------------------ResourceManager
DataNode-------- DataNode-------------DataNode
JournalNode----- JournalNode---------JournalNode
NodeManager---NodeManager-------NodeManager
ZooKeeper------- ZooKeeper-----------ZooKeeper

如图:


这里会有两种状态

1、故障了要手动切换

2、自动故障转移

但是在下面的配置中,是完整的配置(就是包括自动故障转移的配置,但是其实操作的步骤并没有一开始就配置好自动故障转移,所以配置文件中我会标出,然后大家有几个属性先别配置)

1、前期准备环境:

三台虚拟机(最少)

hosts文件要配置好,三台都可以相互通过主机名ping通(以下是我的,三台都要一样)

127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4
::1         localhost localhost.localdomain localhost6 localhost6.localdomain6
192.168.163.103   bigdata-03
192.168.163.101   bigdata-01
192.168.163.102   bigdata-02

防火墙都关了

server iptables stop(关闭防火墙)

chkconfig iptables off(开机不自启动)

免密钥登录(这个一定要,不然你启动的时候,老是要让你输入各种密码)

其实就两条命令,但是注意,三台机器都要用相同的用户去执行,不然会出问题!!!出问题了就去把.ssh这个目录下的文件删除,重新生成

在三台机器上都执行ssh-keygen -t rsa 然后三次回车,运行结束会在~/.ssh下生成两个新文件:id_rsa.pub和id_rsa就是公钥和私钥

然后也是在三台机器上都执行:ssh-copy-id bigdata-01;ssh-copy-id bigdata-02;ssh-copy-id bigdata-03(你的公钥和私钥要发给别人,也要发给自己,切记!!)

同步时间

这个方法挺多的,大概思路就是第一台机器去访问外网同步时间,然后另外几台通过脚本去同步第一台(时间会有几秒甚至几分钟误差,这个没关系),但是其实时间不一样,我发现也没什么影响,所以。。。这里就不给出具体的方法了,大家自行百度脑补下。

2、我们来理下思路,首先给出配置文件里写什么:

最首先需要依赖zookeeper把,所以zookeeper配置如下(我有三台zookeeper):

dataDir=/opt/modules/App/zookeeper-3.4.5/zkData
server.1=bigdata-01:2888:3888
server.2=bigdata-02:2888:3888
server.3=bigdata-03:2888:3888

然后在dataDir目录下(其实就是我这里写的zkData下面)写上一个文件叫myid,里面的值就是第一台机器写1,第二台写2,第三台写3,就可以了,要跟你的server.1这里的1,对应上就好,然后开启zookeeper,看到是一台leader,两台follower,这里zookeeper开启要给他点时间,因为他要三台相互感知到,所以别急。。一般5分钟内就没问题了,如果5分钟过了,还没好的话,可以去看日志了,因为应该是报错了。

现在可以开始配置我们的hadoop集群了,第一步在hadoop-env.sh和mapred-env.sh还有yarn-env.sh中写上你的jdk路径(有可能这条属性被注释掉了,记得解开,把前面的#去掉就可以了)export JAVA_HOME=/opt/modules/jdk1.7.0_67


然后core-site.xml

  1. <configuration>
  2. <property>
  3. <name>fs.defaultFS</name>
  4. <value>hdfs://ns1</value>
  5. </property>
  6. <property>
  7. <name>hadoop.tmp.dir</name>
  8. <value>/opt/modules/App/hadoop-2.5.0/data/tmp</value>
  9. </property>
  10. <property>
  11. <name>hadoop.http.staticuser.user</name>
  12. <value>beifeng</value>
  13. </property>
  14. <property>
  15. <name>ha.zookeeper.quorum</name>
  16. <value>bigdata-01:2181,bigdata-02:2181,bigdata-03:2181</value>
  17. </property>
  18. </configuration>

然后是hdfs-site.xml

  1. <configuration>
  2. <property>
  3. <name>dfs.replication</name>
  4. <value>3</value>
  5. </property>
  6. property>
  7. <name>dfs.permissions.enabled</name>
  8. <value>false</value>
  9. </property>
  10. <property>
  11. <name>dfs.nameservices</name>
  12. <value>ns1</value>
  13. </property>
  14. <property>
  15. <name>dfs.blocksize</name>
  16. <value>134217728</value>
  17. </property>
  18. <property>
  19. <name>dfs.ha.namenodes.ns1</name>
  20. <value>nn1,nn2</value>
  21. </property>
  22. <!-- nn1的RPC通信地址,nn1所在地址 -->
  23. <property>
  24. <name>dfs.namenode.rpc-address.ns1.nn1</name>
  25. <value>bigdata-01:8020</value>
  26. </property>
  27. <!-- nn1的http通信地址,外部访问地址 -->
  28. <property>
  29. <name>dfs.namenode.http-address.ns1.nn1</name>
  30. <value>bigdata-01:50070</value>
  31. </property>
  32. <!-- nn2的RPC通信地址,nn2所在地址 -->
  33. <property>
  34. <name>dfs.namenode.rpc-address.ns1.nn2</name>
  35. <value>bigdata-02:8020</value>
  36. </property>
  37. <!-- nn2的http通信地址,外部访问地址 -->
  38. <property>
  39. <name>dfs.namenode.http-address.ns1.nn2</name>
  40. <value>bigdata-02:50070</value>
  41. </property>
  42. <!-- 指定NameNode的元数据在JournalNode日志上的存放位置(一般和zookeeper部署在一起) -->
  43. <property>
  44. <name>dfs.namenode.shared.edits.dir</name>
  45. <value>qjournal://bigdata-01:8485;bigdata-02:8485;bigdata-03:8485/ns1</value>
  46. </property>
  47. <!-- 指定JournalNode在本地磁盘存放数据的位置 -->
  48. <property>
  49. <name>dfs.journalnode.edits.dir</name>
  50. <value>/opt/modules/App/hadoop-2.5.0/data/journal</value>
  51. </property>
  52. <!--客户端通过代理访问namenode,访问文件系统,HDFS 客户端与Active 节点通信的Java 类,使用其确定Active 节点是否活跃 -->
  53. <property>
  54. <name>dfs.client.failover.proxy.provider.ns1</name>
  55. <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
  56. </property>
  57. <!--这是配置自动切换的方法,有多种使用方法,具体可以看官网,在文末会给地址,这里是远程登录杀死的方法 -->
  58. <property>
  59. <name>dfs.ha.fencing.methods</name>
  60. <value>sshfence</value> ----这个参数的值可以有多种,你也可以换成shell(/bin/true)试试,也是可以的,这个脚本do nothing 返回0
  61. </property>
  62. <!-- 这个是使用sshfence隔离机制时才需要配置ssh免登陆 -->
  63. <property>
  64. <name>dfs.ha.fencing.ssh.private-key-files</name>
  65. <value>/home/beifeng/.ssh/id_rsa</value>
  66. </property>
  67. <!-- 配置sshfence隔离机制超时时间,这个属性同上,如果你是用脚本的方法切换,这个应该是可以不配置的 -->
  68. <property>
  69. <name>dfs.ha.fencing.ssh.connect-timeout</name>
  70. <value>30000</value>
  71. </property>
  72. <!-- 这个是开启自动故障转移,如果你没有自动故障转移,这个可以先不配 -->
  73. <property>
  74. <name>dfs.ha.automatic-failover.enabled</name>
  75. <value>true</value>
  76. </property>
  77. </configuration>


然后是mapred-site.xml


  1. <configuration>
  2. <property>
  3. <name>mapreduce.framework.name</name>
  4. <value>yarn</value>
  5. </property>
  6. <property>
  7. <name>mapreduce.jobhistory.address</name>
  8. <value>bigdata-01:10020</value>
  9. </property>
  10. <property>
  11. <name>mapreduce.jobhistory.webapp.address</name>
  12. <value>bigdata-01:19888</value>
  13. </property>
  14. </configuration>

然后是yarn-site.xml

  1. <configuration>
  2. <property>
  3. <name>yarn.nodemanager.aux-services</name>
  4. <value>mapreduce_shuffle</value>
  5. </property>
  6. <property>
  7. <name>yarn.resourcemanager.hostname</name>
  8. <value>bigdata-03</value>
  9. </property>
  10. <property>
  11. <name>yarn.log-aggregation-enable</name>
  12. <value>true</value>
  13. </property>
  14. <property>
  15. <name>yarn.log-aggregation.retain-seconds</name>
  16. <value>106800</value>
  17. </property>
  18. </configuration>

然后slave里面写上自己的datanode的节点名称(例如:以下)
bigdata-01
bigdata-02
bigdata-03
注:只要配置一台,配置完了,把配置分发给其他机器,使用如下命令(scp命令):
提醒下,你发送前可以把hadoop中的share/doc这个目录下的东西删掉,因为是些帮助文档,太大了,影响传输速度所以。。。rm -rf share/doc
scp -r hadoop2.5.0/ bigdata-02:/opt/modules/
scp -r hadoop2.5.0/ bigdata-03:/opt/modules/

-----------------好,配置就给到这里-----------------------

2、启动过程

1)首先zookeeper已经启动好了吧(三台都要启动)
开启命令 bin/zkServer.sh start
2)启动三台journalnode(这个是用来同步两台namenode的数据的)
sbin/hadoop-deamon.sh start journalnode
3)操作namenode(只要格式化一台,另一台同步,两台都格式化,你就做错了!!)
格式化第一台:bin/hdfs namenode -format
启动刚格式化好的namenode:sbin/hadoop-deamon.sh start namenode
在第二台机器上同步namenode的数据:bin/hdfs namenode -bootstrapStandby
启动第二台的namenode:sbin/hadoop-deamon.sh start namenode
4)查看web(这里应该两台都是stanby)
http://bigdata-01:50070
http://bigdata-01:50070
5)然后手动切换namenode状态
手动切换namenode状态(也可以在第一台切换第二台为active,毕竟一个集群)
$ bin/hdfs haadmin -transitionToActive nn1 ##切换成active
$ bin/hdfs haadmin -transitionToStandby nn1 ##切换成standby
注: 如果不让你切换的时候,bin/hdfs haadmin -transitionToActive nn2 --forceactive
也可以直接通过命令行查看namenode状态, bin/hdfs haadmin -getServiceState nn1

--------------------------到这里你的手动故障转移已经配置成功了-----------------------------------------

6)这时候就应该配置自动故障转移了!(其实完整的配置我在上面已经给过了)
首先你要把你的集群完整的关闭,一定要全关了!!
自动故障转移的配置其实要在zookeeper上生成一个节点 hadoop-ha,这个是自动生成的,通过下面的命令生成:
bin/hdfs zkfc -formatZK
然后你登录zookeeper的客户端,就是bin/zkCli.sh里面通过 “ls /” 可以看到多了个节点
这时候讲道理集群应该是没问题了!
你可以直接通过sbin/start-dfs.sh去启动hdfs,默认会启动zkfc的,其实就是一个自动故障转移的进程,会在你的namenode存在的两台机器上有这么一个节点。
等到完全启动了之后,就可以kill掉active的namenode,你就会发现stanby的机器变成active,然后再去启动那台被你kill掉的namenode(启动起来是stanby的状态),然后你再去kill掉active,stanby的机器又会变成active,到此你的HA自动故障转移已经完成了。
这是官网的帮助文档:http://hadoop.apache.org/docs/r2.5.2/hadoop-project-dist/hadoop-hdfs/HDFSHighAvailabilityWithQJM.html
后话:其实也可以做resourcemanager的HA,但是其实你能搭出namenode的HA,对于你来说,resourcemanager的HA就很简单了。

====================分割线===========================

然后我们再来看下resourcemanager的HA
官网文档:http://hadoop.apache.org/docs/r2.5.2/hadoop-yarn/hadoop-yarn-site/ResourceManagerHA.html



所以当看到如上的图时,应该想到resourcemanager的HA也是要依赖zookeeper的

集群规划

其实就跟上面一样,只是我在第三台机器上也启动一个resourcemanager的备用节点

配置:

修改yarn-site.xml文件

  1. <!--启用resourcemanager ha-->
  2. <!--是否开启RM ha,默认是开启的-->
  3. <property>
  4. <name>yarn.resourcemanager.ha.enabled</name>
  5. <value>true</value>
  6. </property>
  7. <!--声明两台resourcemanager的地址-->
  8. <property>
  9. <name>yarn.resourcemanager.cluster-id</name>
  10. <value>rmcluster</value>
  11. </property>
  12. <property>
  13. <name>yarn.resourcemanager.ha.rm-ids</name>
  14. <value>rm1,rm2</value>
  15. </property>
  16. <property>
  17. <name>yarn.resourcemanager.hostname.rm1</name>
  18. <value>bigdata-02</value>
  19. </property>
  20. <property>
  21. <name>yarn.resourcemanager.hostname.rm2</name>
  22. <value>bigdata-03</value>
  23. </property>
  24. <!--指定zookeeper集群的地址-->
  25. <property>
  26. <name>yarn.resourcemanager.zk-address</name>
  27. <value>bigdata-01:2181,bigdata-02:2181,bigdata-03:2181</value>
  28. </property>
  29. <!--启用自动恢复,当任务进行一半,rm坏掉,就要启动自动恢复,默认是false-->
  30. <property>
  31. <name>yarn.resourcemanager.recovery.enabled</name>
  32. <value>true</value>
  33. </property>
  34. <!--指定resourcemanager的状态信息存储在zookeeper集群,默认是存放在FileSystem里面。-->
  35. <property>
  36. <name>yarn.resourcemanager.store.class</name>
  37. <value>org.apache.hadoop.yarn.server.resourcemanager.recovery.ZKRMStateStore</value>
  38. </property>

将yarn-site.xml文件分发到其他主机上
$ scp yarn-site.xml bigdata-02:/opt/modules/hadoop-2.5.0/etc/hadoop/
$ scp yarn-site.xml bigdata-03:/opt/modules/hadoop-2.5.0/etc/hadoop/

启动ResourceManager

在bigdata-02上:
sbin/start-yarn.sh

在bigdata-03上:
sbin/yarn-daemon.sh start resourcemanager


bigdata-01:
14168 DataNode
14338 JournalNode
15276 Jps
15241 NodeManager
14071 NameNode
12151 QuorumPeerMain
14485 DFSZKFailoverController

bigdata-02:
10094 ResourceManager
10183 NodeManager
10213 Jps
9212 DataNode
9279 JournalNode
9143 NameNode
8136 QuorumPeerMain

bigdata-03:
7177 Jps
6449 DataNode
5935 QuorumPeerMain
7147 ResourceManager
6512 JournalNode
7020 NodeManager

观察web 8088端口


当PC02的ResourceManager是Active状态的时候,访问PC03的ResourceManager会自动跳转到PC02的web页面
测试HA的可用性


./yarn rmadmin -getServiceState rm1 ##查看rm1的状态
./yarn rmadmin -getServiceState rm2 ##查看rm2的状态
然后你可以提交一个job到yarn上面,当job执行一半(比如map执行了100%),然后kill -9 掉active的rm
这时候如果job还能够正常执行完,结果也是正确的,证明你rm自动切换成功了,并且不影响你的job运行!!!
结束。。。。。。。。

后话:
其实正常情况下,主节点是不会直接坏掉的(除非机器坏掉,那我无话可说),往往是比如某个进程占用cpu或者内存极大,有可能被linux直接kill掉
这种时候,ha并没有那么灵敏,就是说,不一定能马上切换过去,可能有几分钟延迟,所以我们应该做的是避免一些主节点挂掉的情况。
所以可以使用spark或者storm做预警系统,当hadoop的日志文件里面出现warning的时候,能够实时报警(比如向维护人员发短信,发邮件之类的功能)
在事故发生之前,处理可能发生的故障!

再次声明,如果本文有什么说的不对之处,希望大神们可以指出!!谢谢各位~


声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小舞很执着/article/detail/873431
推荐阅读
相关标签
  

闽ICP备14008679号