Yarn
Yarn 资源调度器
- Yarn 是一个资源调度平台,负责为运算程序提供服务器运算资源,相当于一个分布式的操作系统平台,而 MapReduce 等运算程序相当于则相当于运行于操作系统之上的应用程序
Yarn 基础架构
- Yarn 主要由 ResourceManager、NodeManager、ApplicationMaster 和 Container 等组件构成
- ResourceManager (RM)主要作用:
- 处理客户端请求
- 监控 NodeManager
- 启动或监控 ApplicationMaster
- 资源的分配与调度
- NodeManager (NM)主要作用
- 管理单个节点上的资源
- 处理来自 ResourceManager 的命令
- 处理来自 AppliactionMaster 的命令
- ApplicationMaster(AM)作用
- 为应用程序申请资源并分配给内部的任务
- 人物的监控与容错
- Container
- Contaioner 是YARN 中的资源抽象,它封装了某个节点上的多维度资源,如内存、CPU、磁盘、网络等
YARN工作机制
- MR程序提交到客户端所在的节点
- YarnRunner 向 ResouceManager 申请一个 Application
- RM 将该应用程序的资源路径返回给 YarnRunner
- 该程序将运行所需资源提交到 HDFS 上
- 程序资源提交完毕后,申请运行 mrAppMaster
- RM将用户的请求初始化成一个 Task
- 其中一个 NodeManager 领取到 Task 任务
- 该 NodeManager 创建容器 Contaioner,并产生 MRAppmaster
- Contaioner 从 HDFS 上拷贝资源到本地
- MRAppmaster 向 RM 申请运行 MapTask 资源
- Rm将运行 MapTask 任务分配给另外两个 NodeManager,另两个 NodeManager 分别领取任务并创建容器
- MR 向两个接收到任务的 NodeManager 发送程序启动脚本,这两个 NodeManager 分别启动 MapTask,MapTask 对数据分区排序
- MrAppMaster 等待所有 MapTask 运行完毕后,向 RM 申请容器,运行 ReduceTask
- ReduceTask 向 MapTask 获取相应分区的数据
- 程序运行完毕后,MR会向 RM 申请注销自己
作业提交全过程
- 作业提交
- Client 调用 job.waitForCompletion 方法,向整个集群提交 MapReduce 作业
- Client 向 RM 申请一个作业 id
- RM 给 Client 返回该 job 资源的提交路径 和 作业 id
- Client 提交 jar 包、切片信息 和 配置文件到指定的资源提交路径
- Client 提交完资源后,向 RM 申请运行 MrAppMaster
- 作业初始化
- 当 RM 收到 Client 的请求后,将该 job 添加到容量调度器中
- 某一个空闲的 NM 领取到该 Job
- 该 NM 创建 Container,并产生 MRAppmaster
- 下载 Client 提交的资源到本地
- 任务分配
- MrAppMaster 向 RM 申请运行多个 MapTask 任务资源
- RM 将运行 MapTask 任务分配给另外两个 NodeManager,另两个 NodeManager 分别领取任务并创建容器
- 任务运行
- MR 向两个接收到任务的 NodeManager 发送程序启动脚本,这两个 NodeManager 分别启动 MapTask,MapTask 对数据分区排序
- MrAppMaster 等待所有 MapTask 运行完毕后,向 RM 申请容器,运行 ReduceTask
- ReduceTask 向 MapTask 获取相应分区的数据
- 程序运行完毕后,MR 会向 RM 申请注销自己
- 进度和状态更新
- Yarn 中的任务将其进度和状态(包括 counter)返回给应用管理器,客户端每秒(通过 mapreduce.client.progressmonitor.pollinterval 设置)向应用管理器请求进度更新,展示给用户
- 作业完成
- 除了向应用管理器请求作业进度外,客户端每 5 秒都会通过调用 waifForCompletion() 来检查作业是否完成。时间间隔 可以通过 mapreduce.client.completion.pollinterval 来设置。作业完成之后,应用管理器 和 Container 会清理工作状态。作业的信息会被作业历史服务器存储以被之后用户核查
Yarn调度器和调度算法
-
Hadoop作业调度器主要有三种:FIFO、容量(Capacity Scheduler)和公平(Fair Scheduler)。
-
具体设置:yarn-default.xml
<property> <description>The class to use as the resource scheduler.</description> <name>yarn.resourcemanager.scheduler.class</name> <value>org.apache.hadoop.yarn.server.resourcemanager.scheduler.capacity.CapacityScheduler</value> </property>
先进先出调度器(FIFO)
- FIFO调度器(First In First Out):单队列,根据提交作业的先后顺序,先来先服务
- 优点:简单易懂
- 缺点:不支持多队列,生产环境很少使用
容量调度器(Capacity Scheduler)
- Capacity Scheduler 是 Yahoo 开发的多用户调度器
特点
- 多队列:每个队列可配置一定的资源量,每个队列采用FIFO调度策略
- 容量保证:管理员可为每个队列设置资源最低保证和资源使用上线
- 灵活性:如果一个队列中的资源有剩余,可以暂时共享给那些需要资源的队列,而一旦该队列有新的应用程序提交,则其他队列借调的资源会归还给该队列
- 多租户:
- 支持多用户共享集群和多应用程序同时运行
- 为了防止同一个用户的作业独占队列中的资源,该调度器会对同一用户提交的作业所占资源量进行限定
容量调度器资源分配算法
- 队列资源分配
- 从 root 开始,使用深度优先算法,优先选择资源占用率最低的队列分配资源
- 作业资源分配
- 默认按照提交作业的优先级和提交时间顺序分配资源
- 容器资源分配
- 按照容器的优先级分配资源
- 如果优先级相同,按照数据本地性原则
- 任务和数据在同一节点
- 任务和数据在同一机架
- 任务和数据不在同一节点也不在同一机架
公平调度器(Fair Scheduler)
- 特点
- 与容量调度器相同点
- 多队列:支持多队列多作业
- 容量保证:管理员可为每个队列设置资源最低保证和资源使用上限
- 灵活性:如果一个队列中的资源有剩余,可以暂时共享给那些需要资源的队列,而一旦该队列有新的应用程序提交,则其他队列借调的资源会归还给该队列
- 多租户:支持多用户共享集群和多应用程序同时运行;为了防止同一个用户的作业独占队列中的资源,该调度器会对同一用户提交的作业所占资源进行限定
- 与容量调度器不同点
- 核心策略不同
- 容量调度器:优先选择资源利用率低的队列
- 公平调度器:优先选择对资源的缺额比较大的
- 每个队列可以单独设置资源分配方式
- 容量调度器:FIFO、DRF
- 公平调度器:FIFO、FAIR、DRF
- 与容量调度器相同点
缺额
- 公平调度器设计目标:在时间尺度上,所有作业获得公平的资源。某一时刻一个作业应获资源和实际获取资源的差距叫”缺额“
- 调度器会优先为缺额大的作业分配资源
公平调度器队列资源分配
-
FIFO策略
- 公平调度器每个队列资源分配策略如果选择 FIFO 的话,此时公平调度器相当于上面讲过的容量调度器
-
Fair策略
-
Fair策略(默认)是一种基于最大最小公平算法实现的资源多路服用方式,默认情况下,每个队列内部采用该方式分配资源。这意味着,如果一个队列中有两个应用程序同时运行,则每个应用程序可得到 1/2 的资源,如果三个应用程序同时运行,则每个应用程序可得到 1/3 的资源
-
具体资源分配流程和容量调度器一致
- 选择队列
- 选择作业
- 选择容器
- 以上三步,每一步都是按照公平策略分配资源
-
实际最小资源分配:mindshare=Min(资源需求量,配置的最小资源)
-
是否饥饿:isNeedy=资源使用量 < mindshare (实际最小资源份额)
-
资源分配比:minShareRatio = 资源使用量 / Max(mindshare,1)
-
资源使用权重比:useToWeightRatio = 资源使用量 / 权重
-
DRF策略
- DRF(Dominant Resource Fairness)
- Yarn默认的情况是只考虑内存。但是很多时候我们资源有很多种,例如内存,CPU,网络带宽等。
- DRF(Dominant Resource Fairness)是一种集群资源调度策略,它旨在使不同用户的各自“主资源”最大化地保持公平。主资源是指用户所需的多种资源中,占用比例最大的那一种资源。。DRF 算法会根据每个用户的主资源占用比例来分配资源,以保证公平性。
Yarn常用命令
- tips:
applicationId
:是 YARN 集群中每个应用程序的唯一标识符。当客户端向 YARN 集群提交一个应用程序时,YARN 会为该应用程序分配一个唯一的 applicationIdapplicationAttemptId
:则表示应用程序的一次运行尝试。如果应用程序在运行过程中失败,YARN 会尝试重新启动该应用程序。每次重新启动都会生成一个新的applicationAttemptId
,以区分不同的运行尝试。
- 列出所有Application
yarn application -list
- 根据 Application 状态过滤:yarn application -list -appStates (所有状态:ALL、NEW、NEW_SAVING、SUBMITTED、AEEEPTED、RUNNING、FINISHED、FAILED、KILLED)
yarn application -list -appStates FINISHED
- Kill 掉 Application
yarn application -kill application_id
- 查看 Application 日志
yarn logs -applicationId <ApplicationId>
- 查看 Container 日志
yarn logs -applicationId <ApplicationId> -containerId <ContainerId>
- 列出所有 Application 尝试的列表
yarn applicationattempt -list <ApplicationId>
- 打印ApplicationAttemp 状态
yarn applicationattempt -status <ApplicationId>
- 列出所有 Container
yarn container -list <ApplicationAttemptId>
- 打印 Container 状态
yarn container -status <ContainerId>
- 注:只有在任务跑的途中才能看到 container 的状态
- 列出所有节点
yarn node -list -all
- 更新
yarn
配置
yarn rmadmin -refreshQueues
- 查看队列
yarn queue -status <QueueName>
Yarn 生产环境核心参数
-
ResourceManager 相关
yarn.resourcemanager.scheduler.class
:配置调度器,默认容量yarn.resourcemanager.scheduler.client.thread-count
:ResourceManager 处理调度器请求的线程数量,默认50
-
NodeManager 相关
yarn.nodemanager.resource.detect-hardware-capabilities
:是否让yarn自己检测硬件进行配置,默认falseyarn.nodemanager.resource.count-logical-processors-as-cores
:是否将虚拟核数当作CPU核数,默认falseyarn.nodemanager.resource.pcores-vcores-multiplier
:虚拟核数和物理核数乘数,例如:4核8线程,该 参数就应设为2,默认1.0yarn.nodemanager.resource.memory-mb
:NodeManager使用内存,默认8Gyarn.nodemanager.resource.system-reserved-memory-mb NodeManager
:为系统保留多少内存 以上二个参数配置一个即可yarn.nodemanager.resource.cpu-vcores
:NodeManager使用CPU核数,默认8个yarn.nodemanager.pmem-check-enabled
:是否开启物理内存检查限制container,默认打开yarn.nodemanager.vmem-check-enabled
:是否开启虚拟内存检查限制container,默认打开yarn.nodemanager.vmem-pmem-ratio
:虚拟内存物理内存比例,默认2.1
-
Container相关
yarn.scheduler.minimum-allocation-mb
:容器最最小内存,默认1Gyarn.scheduler.maximum-allocation-mb
:容器最最大内存,默认8Gyarn.scheduler.minimum-allocation-vcores
:容器最小CPU核数,默认1个yarn.scheduler.maximum-allocation-vcores
:容器最大CPU核数,默认4个