赞
踩
软件版本:
关于hadoop+zookeeper高可用集群之前已经写过相关博客:
Hadoop+Spark+Zookeeper高可用集群搭建(一)
Hadoop+Spark+Zookeeper高可用集群搭建(二)
Hadoop+Spark+Zookeeper高可用集群搭建(三)
Hadoop+Spark+Zookeeper高可用集群搭建(四)
Hadoop+Spark+Zookeeper高可用集群搭建(五)
本文搭建的分布式高可用集群是基于独立的zookeeper服务的,关于zookeeper的搭建可参考上面的地址,当然如果不想搭建独立的zookeeper服务,flink内部也提供了zookeeper插件,通过修改FLINK_HOME/conf/zoo.cfg文件即可,启动命令在FLINK_HOME/bin/start-zookeeper-quorum.sh 关于此种方式启动zookeeper可以参考官方文档:flink内置zookeeper的搭建
下载地址:flink官网下载地址
将下载后的tar包上传到你的集群解压后,配置flink-conf.yaml文件
jobmanager.rpc.address: master001
jobmanager.rpc.port: 6123
# 下面四项根据自己实际情况配置
jobmanager.heap.size: 2048m
taskmanager.memory.process.size: 4096m
taskmanager.numberOfTaskSlots: 8
parallelism.default: 8
high-availability: zookeeper # 使用zookeeper实现集群高可用
# 下面两个目录需要在hadoop上面创建,分别是/flinkshare/ha, /ZooKeeper/ha
high-availability.storageDir: hdfs://mycluster/flinkshare/ha/
recovery.zookeeper.storageDir: hdfs://mycluster/ZooKeeper/ha/
high-availability.zookeeper.quorum: slave001:2181,slave002:2181,slave003:2181
master001:8081
master002:8081
slave001
slave002
slave003
server.1=slave001:2888:3888
server.2=slave002:2888:3888
server.3=slave003:2888:3888
最新版本的flink-1.10.0与hadoop进行集成的话需要进行如下两步操作:
vi /etc/profile
# 添加如下内容:
export HADOOP_CONF_DIR=/home/hadoop/software/hadoop-2.6.5/etc/hadoop
# 使环境变量生效
source /etc/profile
如果集群为启动起来,或者启动错误,可以通过查看位于目录/home/hadoop/software/flink-1.10.0/log下的日志文件
将配置完成的flink文件传输到集群的其他机器中:
scp -r flink-1.10.0 master002:~/software/
scp -r flink-1.10.0 slave001:~/software/
scp -r flink-1.10.0 slave002:~/software/
scp -r flink-1.10.0 slave003:~/software/
首先启动hadoop和zookeeper,然后启动flink集群:
./start-cluster.sh
通过你指定的rpc地址(master001:8081)即可访问:
赞
踩
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。