赞
踩
Apache Flink 是一个框架和分布式处理引擎,用于对无界和有界数据流进行状态计算
flink目前在国内企业的应用如下:
我们之所以要使用flink,因为:
flink的应用场景有:
基于流的世界观
在 Flink 的世界观中,一切都是由流组成的,离线数据是有界的流;实时数据是一个没有界限的流: 这就是所谓的有界流和无界流
分层API
越顶层越抽象,表达含义越简明,使用越方便;越底层越具体,表达能力越丰富,使用越灵活
支持事件时间(event-time)和处理时间(processing-time)语义
精确一次(exactly-once)的状态一致性保证
低延迟,每秒处理数百万个事件,毫秒级延迟
与众多常用存储系统的连接
高可用,动态扩展,实现7*24小时全天候运行
Flink是一个分层架构的系统,每一层所包含的组件都提供了特定的抽象,用来服务于上层组件。Flink分层的组件栈如下图所示:
从下至上:
./bin/start-cluster.sh
./flink run -c com.atguigu.wc.StreamWordCount –p 2
以 Yarn 模式部署 Flink 任务时,要求Flink 是有Hadoop支持的版本, Hadoop环境需要保证版本在2.2 以上,并且集群中安装有HDFS服务。
Flink 提供了两种在 yarn 上运行的模式,分别为Session-Cluster和Per-Job-Cluster模式
Session-Cluster 模式需要先启动集群,然后再提交作业,接着会向yarn申请一块空间后,资源永远保持不变。如果资源满了,下一个作业就无法提交,只能等到yarn 中的其中一个作业执行完成后,释放了资源,下个作业才会正常提交。所有作业共享 Dispatcher 和 ResourceManager,共享资源;适合规模小执行时间短的作业。
在 yarn 中初始化一个 flink 集群,开辟指定的资源,以后提交任务都向这里提交。这个 flink 集群会常驻在 yarn 集群中,除非手工停止。
一个 Job 会对应一个集群,每提交一个作业会根据自身的情况,都会单独向 yarn申请资源,直到作业执行完成,一个作业的失败与否并不会影响下一个作业的正常提交和运行。独享 Dispatcher 和 ResourceManager,按需接受资源申请;适合规模大长时间运行的作业。
每次提交都会创建一个新的 flink 集群,任务之间互相独立,互不影响,方便管理。任务执行完成之后创建的集群也会消失。
容器化部署时目前业界很流行的一项技术,基于 Docker 镜像运行能够让用户更加方便地对应用进行管理和运维。 容器管理工具中最为流行的就是Kubernetes(k8s),而Flink也在最近的版本中支持了k8s部署模式。
flink k8s方式部署参考 flink-on-k8s-operator
Flink 运行时架构主要包括四个不同的组件,分别是作业管理器(JobManager)、资源管理器(ResourceManager)、任务管理器(TaskManager)以及分发器(Dispatcher),它们会在运行流处理应用程序时协同工作:
控制一个应用程序执行的主进程,也就是说,每个应用程序都会被一个不同的JobManager 所控制执行。
JobManager 会先接收到要执行的应用程序, 这个应用程序会包括:
JobManager会把JobGraph转换成一个物理层面的数据流图,这个图被叫做“执行图”(ExecutionGraph),包含了所有可以并发执行的任务。
JobManager会向资源管理器(ResourceManager)请求执行任务必要的资源,也就是任务管理器(TaskManager)上的插槽(slot)。一旦它获取到了足够的资源,就会将执行图分发到真正运行它们的TaskManager上。而在运行过程中, JobManager会负责所有需要中央协调的操作,比如说检查点(checkpoints)的协调。
taskmanager是flink中的工作进程,通常在Flink中会有多个TaskManager运行,每一个TaskManager都包含了一定数量的插槽(slots)。插槽的数量限制了TaskManager能够执行的任务数量。
启动之后, TaskManager会向资源管理器注册它的插槽;收到资源管理器的指令后,TaskManager就会将一个或者多个插槽提供给JobManager调用。 JobManager就可以向插槽分配任务(tasks)来执行了。
在执行过程中,一个TaskManager可以跟其它运行同一应用程序的TaskManager交换数据。
主要负责管理TaskManager的插槽(slot),TaskManger插槽是Flink中定义的处理资源单元。
Flink为不同的环境和资源管理工具提供了不同资源管理器,比如YARN、 Mesos、 K8S,以及standalone部署。当JobManager申请插槽资源时,ResourceManager会将有空闲插槽的TaskManager分配给JobManager。如果ResourceManager没有足够的插槽来满足 JobManager的请求,它还可以向资源提供平台发起会话,以提供启动TaskManager进程的容器。另外,ResourceManager还负责终止空闲的TaskManager,释放计算资源。
可以跨作业运行,它为应用提交提供了restful接口。当一个应用被提交执行时,分发器就会启动并将应用移交给一个JobManager。
Dispatcher也会启动一个Web UI,用来方便地展示和监控作业执行的信息。Dispatcher在架构中可能并不是必需的,这取决于应用提交运行的方式。
当一个应用提交执行时, Flink 的各个组件是交互协作的过程如下所示:
上图是从一个较为高层级的视角,来看应用中各组件的交互协作。如果部署的集群环境不同(例如 YARN, Mesos, Kubernetes, standalone 等),其中一些步骤可以被省略,或是有些组件会运行在同一个JVM进程中。
具体地 Flink on K8S Session 的提交流程、安装部署如下图所示:
在 K8S 集群上使用 Session 模式提交 Flink 作业的过程会分为 3 个阶段:首先在 K8S 上启动 Flink Session 集群;其次通过 Flink Client 提交作业;最后进行作业调度。具体步骤如下:
flink-configuration-configmap.yaml
jobmanager-service.yaml
jobmanager-rest-service.yaml #可选
jobmanager-deployment.yaml
taskmanager-deployment.yaml
Client 用户使用 Flink run 命令,将相应任务提交上来,用户的 Jar 和 JobGrapth 会在 Flink Client 生成,通过 SVC 传给 Dispatcher。
Dispatcher 收到 JobGraph后,会为每个作业启动一个JobMaster,将JobGraph 交给JobMaster进行调度。
JobMaster 会向 KubernetesResourceManager 申请资源,请求Slot。
KubernetesResourceManager 从 K8S 集群分配 TaskManager,每个 TaskManager 都是一个Pod。
K8S 集群分配一个新的 Pod 后,在上面启动 TaskManager。
TaskManager 启动后注册到 SlotManager。
SlotManager 向 TaskManager 请求 Slot。
TaskManager 提供 Slot 给 JobManager,然后任务被分配到 Slot 上运行。
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-pGYoRIpD-1659267999908)(F:/note/image/task-scheduling.png)]
客户端不是运行时和程序执行的一部分,但它用于准备并发送dataflow(JobGraph)给 Master(JobManager),然后,客户端断开连接或者维持连接以等待接收计算结果。
当Flink集群启动后,首先会启动一个JobManger和一个或多个的TaskManager。由 Client 提交任务给 JobManager, JobManager再调度任务到各个TaskManager 去执行,然后 TaskManager 将心跳和统计信息汇报给JobManager。TaskManager之间以流的形式进行数据的传输。上述三者均为独立的 JVM 进程。
Client为提交 Job 的客户端,可以是运行在任何机器上(与 JobManager 环境连通即可)。提交 Job 后, Client 可以结束进程( Streaming 的任务),也可以不结束并等待结果返回。
主要负责调度Job并协调Task做checkpoint。从Client处接收到Job和JAR包等资源后,会生成优化后的执行计划,并以 Task 的单元调度到各个 TaskManager 去执行。
在启动的时候就设置好了槽位数(Slot),每个slot 能启动一个Task,Task为线程。从JobManager处接收需要部署的 Task,部署启动后,与自己的上游建立连接,接收数据并处理。
Flink中每一个worker(TaskManager)都是一个JVM进程,它可能会在独立的线程上执行一个或多个subtask。为了控制一个worker能接收多少个task, worker通过task slot来进行控制(一个worker至少有一个task slot)
每个task slot表示TaskManager拥有资源的一个固定大小的子集。假如一个TaskManager有三个slot,那么它会将其管理的内存分成三份给各个slot。资源slot化意味着一个subtask 将不需要跟来自其他job的subtask 竞争内存,因为同一个slot中只能是同一个job不同阶段的subtask。需要注意的是,这里不会涉及到 CPU 的隔离, slot 目前仅仅用来隔离 task 的受管理的内存。
默认情况下, Flink 允许子任务共享 slot,即使它们是不同任务的子任务(前提是它们来自同一个 job)。这样的结果是,一个 slot 可以保存作业的整个管道。
一个特定算子的子任务(subtask)的个数被称之为其并行度(parallelism)。一般情况下,一个 stream的并行度,可以认为就是其所有算子中最大的并行度
Task Slot 是静态的概念,是指 TaskManager 具有的并发执行能力,可以通过参数 taskmanager.numberOfTaskSlots 进行配置;而并行度 parallelism 是动态概念,即 TaskManager 运行程序时实际使用的并发能力,可以通过参数parallelism.default进行配置。
假设一共有 3 个 TaskManager,每一个 TaskManager 中的分配 3 个TaskSlot,也就是每个 TaskManager 可以接收 3 个 task,一共 9 个 TaskSlot,如果我们设置parallelism.default=1,即运行程序默认的并行度为 1, 9 个 TaskSlot 只用了 1个,有 8 个空闲,因此,设置合适的并行度才能提高效率。
所有的 Flink 程序都是由三部分组成的:Source 、Transformation和Sink。Source负责读取数据源,Transformation利用各种算子进行处理加工,Sink 负责输出。
在运行时,Flink上运行的程序会被映射成“逻辑数据流”( dataflows),它包含了这三部分。 每一个 dataflow 以一个或多个 sources 开始以一个或多个 sinks 结束。 dataflow 类似于任意的有向无环图(DAG)。在大部分情况下,程序中的转换运算(transformations)跟 dataflow 中的算子(operator) 是一一对应的关系,但有时候,一个 transformation 可能对应多个 operator。
由 Flink 程序直接映射成的数据流图是 StreamGraph,也被称为逻辑流图,因为它们表示的是计算逻辑的高级视图。为了执行一个流处理程序,Flink 需要将逻辑流图转换为物理数据流图,详细说明程序的执行方式。
Flink 转换过程中的图可以分成四层: StreamGraph -> JobGraph -> ExecutionGraph ->物理执行图。
在执行过程中,一个流(stream)包含一个或多个分区(stream partition),而每一个算子(operator)可以包含一个或多个子任务(operator subtask),这些子任务在不同的线程、不同的物理机或不同的容器中彼此互不依赖地执行。
Stream 在算子之间传输数据的形式可以是 one-to-one(forwarding)的模式也可以是redistributing的模式,具体是哪一种形式,取决于算子的种类。
stream维护着分区以及元素的顺序(比如source和map之间)。这意味着 map 算子的子任务看到的元素的个数以及顺序跟source算子的子任务生产的元素的个数、顺序相同, map、 fliter、 flatMap等算子都是one-to-one的对应关系。
stream的分区会发生改变。每一个算子的子任务依据所选择的 transformation 发送数据到不同的目标任务。例如, keyBy基于hashCode 重分区,而 broadcast和rebalance会随机重新分区,这些算子都会引起 redistribute 过程。
Flink采用了一种称为任务链的优化技术,它能减少线程之间的切换和基于缓存区的数据交换,在减少时延的同时提升吞吐量。
形成任务链的条件有如下两个:
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。