当前位置:   article > 正文

hadoop高可用集群搭建

hadoop高可用集群

1、修改配置文件

1、core-site.xml
  1. <!-- 指定hdfs的nameservice为ns1 -->
  2. <property>
  3. <name>fs.defaultFS</name>
  4. <value>hdfs://ns1/</value>
  5. </property>
  6. <!-- 指定hadoop临时目录 -->
  7. <property>
  8. <name>hadoop.tmp.dir</name>
  9. <value>/usr/apps/ha-hadoop/hadoop-2.7.1/data</value>
  10. </property>
  11. <!-- 指定客户端访问zookeeper的地址 -->
  12. <property>
  13. <name>ha.zookeeper.quorum</name>
  14. <value>master:2181,slave1:2181,slave2:2181</value>
  15. </property>
  16. <!-- 指定用户为root -->
  17. <property>
  18. <name>hadoop.http.staticuser.user</name>
  19. <value>root</value>
  20. </property>
2、hdfs-site.xml
  1. <property>
  2. <name>dfs.nameservices</name>
  3. <value>ns1</value>
  4. </property>
  5. <!-- ns1下面有两个NameNode,分别是nn1,nn2 -->
  6. <property>
  7. <name>dfs.ha.namenodes.ns1</name>
  8. <value>nn1,nn2</value>
  9. </property>
  10. <!-- nn1的RPC通信地址 -->
  11. <property>
  12. <name>dfs.namenode.rpc-address.ns1.nn1</name>
  13. <value>master:9000</value>
  14. </property>
  15. <!-- nn2的RPC通信地址 -->
  16. <property>
  17. <name>dfs.namenode.rpc-address.ns1.nn2</name>
  18. <value>slave1:9000</value>
  19. </property>
  20. !-- nn1的http通信地址 -->
  21. <property>
  22. <name>dfs.namenode.http-address.ns1.nn1</name>
  23. <value>master:50070</value>
  24. </property>
  25. <!-- nn2的http通信地址 -->
  26. <property>
  27. <name>dfs.namenode.http-address.ns1.nn2</name>
  28. <value>slave1:50070</value>
  29. </property>
  30. <!-- namenode存储路径 -->
  31. <property>
  32. <name>dfs.namenode.name.dir</name>
  33. <value>file:///usr/apps/ha-hadoop/hadoop-2.7.1/data/dfs/nn/name</value>
  34. </property>
  35. <!-- datanode存储路径 -->
  36. <property>
  37. <name>dfs.datanode.data.dir</name>
  38. <value>file:///usr/apps/ha-hadoop/hadoop-2.7.1/data/dfs/dn</value>
  39. </property>
  40. <!-- 指定NameNode的元数据在JournalNode上的存放位置 -->
  41. <property>
  42. <name>dfs.namenode.shared.edits.dir</name>
  43. <value>qjournal://master:8485;slave1:8485;slave2:8485/ns1</value>
  44. </property>
  45. <!--指定JournalNode在本地磁盘存放数据的位置 -->
  46. <property>
  47. <name>dfs.journalnode.edits.dir</name>
  48. <value>/usr/apps/ha-hadoop/hadoop-2.7.1/journaldata</value>
  49. </property>
  50. <!-- 开启NameNode失败自动切换 -->
  51. <property>
  52. <name>dfs.ha.automatic-failover.enabled</name>
  53. <value>true</value>
  54. </property>
  55. <!-- 配置失败自动切换实现方式 -->
  56. <property>
  57. <name>dfs.client.failover.proxy.provider.ns1</name>
  58. <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
  59. </property>
  60. !--配置隔离机制方法,多个机制用换行分割,即每个机制暂用一行-->
  61. <property>
  62. <name>dfs.ha.fencing.methods</name>
  63. <value>sshfence</value>
  64. </property>
  65. <!-- 使用sshfence隔离机制时需要ssh免登陆-->
  66. <property>
  67. <name>dfs.ha.fencing.ssh.private-key-files</name>
  68. <value>/root/.ssh/id_rsa</value>
  69. </property>
  70. <!--配置sshfence隔离机制超时时间 -->
  71. <property>
  72. <name>dfs.ha.fencing.ssh.connect-timeout</name>
  73. <value>30000</value>
  74. </property>
3、mapred-site.xml
  1. <!-- 指定mr运行在yarn上 -->
  2. <property>
  3. <name>mapreduce.framework.name</name>
  4. <value>yarn</value>
  5. </property>
  6. <property>
  7. <name>mapreduce.jobhistory.address</name>
  8. <value>master:10020</value>
  9. </property>
  10. <property>
  11. <name>mapreduce.jobhistory.webapp.address</name>
  12. <value>master:19888</value>
  13. </property>
  14. <property>
  15. <name>mapreduce.job.ubertask.enable</name>
  16. <value>true</value>
  17. </property>
4、yarn-site.xml
  1. <!-- 开启RM高可用 -->
  2. <property>
  3. <name>yarn.resourcemanager.ha.enabled</name>
  4. <value>true</value>
  5. </property>
  6. <!-- 指定RM的cluster id -->
  7. <property>
  8. <name>yarn.resourcemanager.cluster-id</name>
  9. <value>yarncluster</value>
  10. </property>
  11. <!-- 指定RM的名字 -->
  12. <property>
  13. <name>yarn.resourcemanager.ha.rm-ids</name>
  14. <value>rm1,rm2</value>
  15. </property>
  16. <!-- 分别指定RM的地址 -->
  17. <property>
  18. <name>yarn.resourcemanager.hostname.rm1</name>
  19. <value>master</value>
  20. </property>
  21. <property>
  22. <name>yarn.resourcemanager.hostname.rm2</name>
  23. <value>slave1</value>
  24. </property>
  25. <!-- 指定zk集群地址 -->
  26. <property>
  27. <name>yarn.resourcemanager.zk-address</name>
  28. <value>master:2181,slave1:2181,slave2:2181</value>
  29. </property>
  30. <property>
  31. <name>yarn.nodemanager.aux-services</name>
  32. <value>mapreduce_shuffle</value>
  33. </property>
  34. <property>
  35. <name>yarn.log-aggregation-enable</name>
  36. <value>true</value>
  37. </property>
  38. <property>
  39. <name>yarn.log-aggregation.retain-seconds</name>
  40. <value>604800</value>
  41. </property>
5、slave文件

注:需要配置JAVA_HOME;HADOOP_HOME;ZOOKEEPER_HOME和对应的PATH

2、启动hadoop和zookeeper

1、通过scp命令把文件传输到其余节点中

scp -r ha-hadoop/ slave2:/usr/apps/ha-hadoop

scp -r /etc/profile slave2:/etc

ssh免密的私钥:scp -r id_rsa slave2:/root/.ssh

注意:修改profile文件,需要source /etc/profile

2、机器分别启动zookeeper

进入zookeeper目录:bin/zkServer.sh start

或者

需要配置zookeeper环境变量:sh zkServer.sh start

3、机器分别启动journalnode

进入hadoop安装目录:sbin/hadoop-daemon.sh start journalnode

(启动datanode:sbin/hadoop-daemon.sh start  datanode)

4、格式化集群和启动

在主节点master上执行:bin/hdfs namenode -format

启用高可用把主节点生成的data文件夹传到slave1中:scp -r data slave1:/usr/apps/ha-hadoop/hadoop-2.7.1/

master上格式化ZKFC:bin/hdfs zkfc -formatZK

注:中间报错,可能是hdfs-site.xml配置错误

启动dfs,可以看到两个namenode启动:sbin/start-dfs.sh

yarn的高可用性:

主节点master:sbin/start-yarn.sh

slave1节点: sbin/yarn-daemon.sh start resourcemanager

验证:一个IP是standy,另一个是active,可以kill掉active的namenode,HDFS可以正常访问

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/笔触狂放9/article/detail/605415
推荐阅读
相关标签
  

闽ICP备14008679号