赞
踩
Flink会话模式
1.集群规划:
2. 将flink拖到/opt/so下
3. 将安装包解压到/opt/module下:
tar -zxvf /opt/so/flink-1.15.4-bin-scala_2.12.tgz -C /opt/module
4. 改个名:mv flink-1.15.4 flink
5. 修改配置文件:cd /opt/module/flink/conf
6. 进入配置文件:vim flink-conf.yaml
将jobmanager.rpc.address: localhost改为Hadoop001
1.6之前的只需要改这一个
jobmanager .bind-host:localhost 改为0.0.0.0设置其它用户也可以访问
taskmanager.bind-host: localhost改为0.0.0.0
taskmanager.host:localhost改为hadoop001
rest.address: localh 改为hadoop001
rest.bind-address: localhost 改为0.0.0.0
7. 进入workers:vim workers
Hadoop001
Hadoop002
Hadoop003
8. 进入masters:vim masters
加入:hadoop001:8081
9. 分发:scp -r /opt/module/flink root@hadoop002:/opt/module/flink
scp -r /opt/module/flink root@hadoop003:/opt/module/fink
10. 到hadoop002上操作:
cd /opt/module/flink/conf
vim flink-conf.yaml
将taskmanager.host:hadoop001改为hadoop002 #小弟的用户名和节点用户名保持一致
11. 到hadoop003上操作:
cd /opt/module/flink/conf
vim flink-conf.yaml
将taskmanager.host:hadoop001改为hadoop003
12. 进入bin目录下启动: bin/start-cluster.sh
Hadoop001
Hadoop002
Hadoop003
单机模式
./start-cluster.sh
1. 在 link-confyaml文件中还以对集群中的JobManager 和 TaskManager 组件进行优化配置,主要配置项如下:“
2. jobmanagermemory,processsize: 对JbManager进程可使用到的全部内存进行配置包括JVM元空间和其他开销,默认为 1600M,可以根据集群规模进行适当调整。
3. “taskmanager.memoryprocess.size: 对 TaskManager 进程可使用到的全部内存进行配置包括JVM元空间和其他开销,默认为 1728M,可以根据集群规模进行适当调整。
4. “taskmanagernumberOfTaskSlots: 对每个 TaskManager 能够分配的 Slot 数量进行配置默认为1,可根据TaskManager 所在的机器能够提供给 Flink的CPU数量决定。所谓Slot就是 TaskManager 中具体运行一个任务所分配的计算资源。
5. “parallelism.default: Flink 任务执行的并行度,默认为1。优先级低于代码中进行的并包括JVM元空间和其他开销,默认为 1728M,可以根据集群规模进行适当调整。
6. “taskmanagernumberOfTaskSlots: 对每个 TaskManager 能够分配的 Slot 数量进行配置默认为 1,可根据TaskManager 所在的机器能够提供给 Flink的CPU数量决定。所谓Slot 就是 TaskManager 中具体运行一个任务所分配的计算资源。
7. “parallelism.default: Flink 任务执行的并行度,默认为 1。优先级低于代码中进行的并行度配置和任务提交时使用参数指定的并行度量。
Standalone-HA集群部署:
Cp /opt/so/ flink-shaded-hadoop-2-uber-2.8.3-10.0.jar /opt/module/flink/lib
Cd tmp
Mkdir zookeeper
Scp -r /opt/module/flink root@hadoop003:/opt/module/flink
Scp -r /opt/module/flink root@hadoop002:/opt/module/flink
修改rpc的ip
Flink on yarn
进入hadoop下的yarn-site.xml
<!--是否启动一个线程检查每个任务正使用的物理内存量,如果任务超出分配值,则直接将其杀掉,默认是true -->
<property>
<name>yarn.nodemanager.pmem-check-enabled</name>
<value>false</value>
</property>
<!--是否启动一个线程检查每个任务正使用的虚拟内存量,如果任务超出分配值,则直接将其杀掉,默认是true -->
<property>
<name>yarn.nodemanager.vmem-check-enabled</name>
<value>false</value>
</property>
在环境变量中添加:
export HADOOP_CLASSPATH=`hadoop classpath`
export HADOOP_CONF_DIR=/opt/module/hadoop/etc/hadoop
生效一下:source /etc/profile
分发一下:
scp -r /opt/module/hadoop/etc/hadoop/yarn-site.xml root@hadoop2:/opt/module/hadoop/etc/hadoop/ya
rn-site.xml
scp -r /opt/module/hadoop/etc/hadoop/yarn-site.xml root@hadoop3/opt/module/hadoop/etc/hadoop/ya
rn-site.xml
scp -r /etc/profile root@hadoop2:/etc/profile
scp -r /etc/profile root@hadoop3:/etc/profile
在提交Job前必须要开始yarn-session
bin/yarn-session.sh -n 2 -tm 800 -s 1 -d
flink run -m yarn-cluster -p 2 -yjm 2G -ytm 2G $FLINK_HOME/examples/batch/WordCount.jar
提交一个任务
flink解压包:点击下载
提取码:1771
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。