赞
踩
1、下载并上传至虚拟机hadoop100
虚拟机有两台:hadoop100(主),hadoop101(从)
2、解压到安装目录,并修改主文件夹为flink
- tar zxvf /tempupload/flink-1.17.1-bin-scala_2.12.tgz -C /opt/module
- mv flink-1.17.1 flink
3、修改conf下的配置文件
flink-conf.yaml文件:
- jobmanager.rpc.address: localhost
-
- 改成自己的主机名
-
- jobmanager.rpc.address: hadoop100
(说明:jobmanager节点地址,也是master节点地址)
masters文件:
- localhost:8081
-
- 改成
-
- hadoop100:8081
works文件
- localhost
- 改成
- hadoop101
4、将hadoop100上的flink分发到节点hadoop101
scp -r flink hadoop101:/opt/module
5、配置环境变量,修改/etc/profile
- #flink
- export FLINK_HOME=/opt/module/flink
- export PATH=$PATH:$FLINK_HOME/bin
- //使配置文件生效
- source /etc/profile
6、启动集群
start-cluster.sh
7、本机浏览器访问
碰到的问题:
1、浏览器访问提示拒绝访问
处理:flink-conf.yaml修改rest.bind-address: 0.0.0.0。
参考:【linux 安装flink 防火墙关闭但无法访问web网页(8081)】-CSDN博客
2、Available Task Slots为0
处理:flink-conf.yaml修改jobmanager.bind-host: 0.0.0.0
参考:flink-standalone模式启动后Available Task Slots都显示0_@假装的博客-CSDN博客
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。