赞
踩
<本次依赖的环境有JDK 和Hadoop>,可以参考小编前面的两篇博客
CSDN基础环境搭建 →大数据环境生态搭建1-准备阶段_小秃头_的博客-CSDN博客CSDN
hadoop环境搭建→大数据环境生态搭建2-Hadoop安装与配置_小秃头_的博客-CSDN博客
1)集群规划
主机名 | 角色 |
hadoop101 | JobManager |
hadoop102 | TaskManager |
hadoop103 | TaskManager |
2)安装包下载
Index of /dist/flink/flink-1.13.0https://archive.apache.org/dist/flink/flink-1.13.0/
3)将安装包上传到linux系统
4)解压安装包,<并重命名>
tar -zxvf flink-1.13.0-bin-scala_2.12.tgz -C /opt/module/
5)配置环境变量
- export FLINK_HOME=/opt/module/flink
- export PATH=$PATH:$FLINK_HOME/bin
6)修改flink-conf.yaml配置文件,配置JobManager节点
[root@hadoop101 conf]# vim flink-conf.yaml
7)修改workers文件,配置TaskManager节点
[root@hadoop101 conf]# vim workers
8)将hadoop101上的Flink包分发到hadoop102和hadoop103
- scp -r flink-1.13.0/ hadoop102:$PWD
- scp -r flink-1.13.0/ hadoop103:$PWD
9)启动集群
[root@hadoop101 flink]# ./bin/start-cluster.sh
10)访问web端页面,默认端口8081
1)需要将hadoop-yarn-api-3.1.3.jar 和 flink-shaded-hadoop-3-3.1.1.7.2.8.0-224-9.0.jar 两个jar包放到flink/lib目录里
[root@hadoop101 flink]# cp /opt/module/hadoop/share/hadoop/yarn/hadoop-yarn-api-3.1.3.jar /opt/module/flink/lib/
也可以直接下载:https://repo1.maven.org/maven2/commons-cli/commons-cli/1.5.0/commons-cli-1.5.0.jar
下载好后,直接放到flink/lib即可
如果是hadoop2.x,还需要将flink-shaded-hadoop-2-uber-2.8.3-10.0.jar也放到flink/lib下
2)在yarn模式下启动flink集群
[root@hadoop01 bin]# ./yarn-session.sh -nm flink-on-yarn
显示如下信息表示启动成功
3)访问web页面 http://hadoop102:42281
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。