当前位置:   article > 正文

Hadoop之Yarm资源调度器

yarm

Yarn是一个资源调度平台,负责为运算程序提供服务器运算资源,相当于一个分布式的操作系统平台,而MapReduce等运算程序相当于操作系统之上的应用程序.

Yarn的基本架构

YARN 主要是由ResourceManager,NodeManager,ApplicationMasterContainer等组件构成

在这里插入图片描述
1)**ResourceMabager(RM)**主要作用如下:
(1) 处理客户端请求
(2) 监控NodeManager
(3) 启动或监控ApplicationMaster
(4) 资源的分配与调度
2)**NodeManager(NM)**主要作用如下
(1) 管理单个节点上的资源
(2) 处理来自ResourceManagr的命令
(3) 处理来自ApplicationMaster的命令
3) **ApplicationMaster( AM)**作用如下
(1) 负责数据的切分
(2) 为应用程序申请资源并分配给内部的任务
(3) 任务的监控与容错

  1. Container
    Container是YARM 中的资源抽象,它封装了某个节点上的多维度资源,如内存 ,CPU,磁盘,网络等

Yarn工作机制

在这里插入图片描述
(1) MR程序提交到客户端所在的节点
(2)YarnRunner向ResourceManager申请一个Application
(3)RM将该应用成的资源路径返回给YarnRunner
(4)该程序将运行所需资源提交到HDFS上
(5)程序资源提交完毕后,申请云心mrAppMaster
(6)RM将用户的请求初始化成一个Task
(7)其中一个NodeManager领取到Task任务
(8)该NodeNanager创建容器Container,并产生MRAppmaster
(9)Container从HDFS上拷贝资源到本地
(10)MRAppmaster向RM申请运行MapTask资源
(11)RM将运行MapTask任务分配给另外两个NodeManager,另两个NodeManagr分别领取任务并创建容器
(12)MR向两个接受到任务的NodeManager发送到程序启动脚本上,这两个NodeManager分别启动MapTask,MapTask对数据分区进行排序
(13)MrAppMaster等待所有MapTask运行完毕后,向RM申请容器,运行ReduceTask
(14)ReduceTask向MapTask获取相应分区的数据
(15)程序运行完毕后,MR会向RM申请注销自己

作业提交全过程

在这里插入图片描述
作业提交全过程详解
(1)作业提交
第1步:Client调用job.waitForCompletion方法,向整个集群提交MapReduce作业。
第2步:Client向RM申请一个作业id。
第3步:RM给Client返回该job资源的提交路径和作业id。
第4步:Client提交jar包、切片信息和配置文件到指定的资源提交路径。
第5步:Client提交完资源后,向RM申请运行MrAppMaster。
(2)作业初始化
第6步:当RM收到Client的请求后,将该job添加到容量调度器中。
第7步:某一个空闲的NM领取到该Job。
第8步:该NM创建Container,并产生MRAppmaster。
第9步:下载Client提交的资源到本地。
(3)任务分配
第10步:MrAppMaster向RM申请运行多个MapTask任务资源。
第11步:RM将运行MapTask任务分配给另外两个NodeManager,另两个NodeManager分别领取任务并创建容器。
(4)任务运行
第12步:MR向两个接收到任务的NodeManager发送程序启动脚本,这两个NodeManager分别启动MapTask,MapTask对数据分区排序。
第13步:MrAppMaster等待所有MapTask运行完毕后,向RM申请容器,运行ReduceTask。
第14步:ReduceTask向MapTask获取相应分区的数据。
第15步:程序运行完毕后,MR会向RM申请注销自己。
(5)进度和状态更新
YARN中的任务将其进度和状态(包括counter)返回给应用管理器, 客户端每秒(通过mapreduce.client.progressmonitor.pollinterval设置)向应用管理器请求进度更新, 展示给用户。
(6)作业完成
除了向应用管理器请求作业进度外, 客户端每5秒都会通过调用waitForCompletion()来检查作业是否完成。时间间隔可以通过mapreduce.client.completion.pollinterval来设置。作业完成之后, 应用管理器和Container会清理工作状态。作业的信息会被作业历史服务器存储以备之后用户核查。

资源调度器

目前,Hadoop作业调度器主要有三种:FIFO,Capacity Scheduler和Fair Scheduler
Hadoop3.1.3默认的资源调度器是Capacity Scheduler.

先进先出调度器(FIFO)

在这里插入图片描述

Hadoop最初设计目的是支持大数据批处理作业,如日志挖掘、Web索引等作业,
为此,Hadoop仅提供了一个非常简单的调度机制:FIFO,即先来先服务,在该调度机制下,所有作业被统一提交到一个队列中,Hadoop按照提交顺序依次运行这些作业。
但随着Hadoop的普及,单个Hadoop集群的用户量越来越大,不同用户提交的应用程序往往具有不同的服务质量要求,典型的应用有以下几种:
批处理作业:这种作业往往耗时较长,对时间完成一般没有严格要求,如数据挖掘、机器学习等方面的应用程序。
交互式作业:这种作业期望能及时返回结果,如SQL查询(Hive)等。
生产性作业:这种作业要求有一定量的资源保证,如统计值计算、垃圾数据分析等。
此外,这些应用程序对硬件资源需求量也是不同的,如过滤、统计类作业一般为CPU密集型作业,而数据挖掘、机器学习作业一般为I/O密集型作业。因此,简单的FIFO调度策略不仅不能满足多样化需求,也不能充分利用硬件资源。

容量调度器(Capacity Scheduler)

在这里插入图片描述1.支持多个对列,每个对列可配置一定的资源量,每个对列采用FIFO调度策略
2.为了防止同一个用户的作业独占对列中的资源,该调度器会对同一用户提交的作业所占资源量进行限定
3.首先,计算每个对列中正在运行的任务数与其应该分得的计算资源之间的比值,选择一个该比值最小的对列
4.其次,按照作业优先级和提交时间顺序,同时考虑用户资源量限制和内存限制对对列内任务排序
5.三个对列同时按照任务的先后顺序一次执行,比如 job11,job21和job31分别排在对列最前面,先运行,也是并行运行

Capacity Scheduler Capacity Scheduler 是Yahoo开发的多用户调度器,它以队列为单位划分资源,每个队列可设定一定比例的资源最低保证和使用上限,同时,每个用户也可设定一定的资源使用上限以防止资源滥用。而当一个队列的资源有剩余时,可暂时将剩余资源共享给其他队列。
总之,Capacity Scheduler 主要有以下几个特点:
①容量保证。管理员可为每个队列设置资源最低保证和资源使用上限,而所有提交到该队列的应用程序共享这些资源。
②灵活性,如果一个队列中的资源有剩余,可以暂时共享给那些需要资源的队列,而一旦该队列有新的应用程序提交,则其他队列借调的资源会归还给该队列。这种资源灵活分配的方式可明显提高资源利用率。
③多重租赁。支持多用户共享集群和多应用程序同时运行。为防止单个应用程序、用户或者队列独占集群中的资源,管理员可为之增加多重约束(比如单个应用程序同时运行的任务数等)。
④安全保证。每个队列有严格的ACL列表规定它的访问用户,每个用户可指定哪些用户允许查看自己应用程序的运行状态或者控制应用程序(比如杀死应用程序)。此外,管理员可指定队列管理员和集群系统管理员。
⑤动态更新配置文件。管理员可根据需要动态修改各种配置参数,以实现在线集群管理。

公平调度器(Fair Scheduler)

在这里插入图片描述
支持多队列多作业,每个对列可以单独配置
同一对列的作业按照其优先级分享整个对列的资源,并发执行
每个作业可以设置最小资源值,调度器会保证作业获得其以上的资源
Fair Scheduler Fair Schedulere是Facebook开发的多用户调度器。
公平调度器的目的是让所有的作业随着时间的推移,都能平均地获取等同的共享资源。当有作业提交上来,系统会将空闲的资源分配给新的作业,每个任务大致上会获取平等数量的资源。和传统的调度策略不同的是它会让小的任务在合理的时间完成,同时不会让需要长时间运行的耗费大量资源的任务挨饿!
同Capacity Scheduler类似,它以队列为单位划分资源,每个队列可设定一定比例的资源最低保证和使用上限,同时,每个用户也可设定一定的资源使用上限以防止资源滥用;当一个队列的资源有剩余时,可暂时将剩余资源共享给其他队列。
当然,Fair Scheduler也存在很多与Capacity Scheduler不同之处,这主要体现在以下几个方面:
①资源公平共享。在每个队列中,Fair Scheduler 可选择按照FIFO、Fair或DRF策略为应用程序分配资源。其中,
FIFO

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/秋刀鱼在做梦/article/detail/866128
推荐阅读
相关标签
  

闽ICP备14008679号