kuberneter调度由浅入深:框架
今天zouyee先带各位盘点CNCF上周的一些有趣的事情(虽然有点迟):
1. Kubernetes社区GB代表选举结束 Paris Pittman当选
2. CNCF孵化项目OPA进入毕业流程
3. 上周helm项目发布v3.5.0功能性版本
4. CoreDNS项目通过Docker镜像仓库放开拉取限制的申请
书接上文K8S 调度系统由浅入深系列:简介,今天zouyee为大家带来《kuberneter调度由浅入深:框架》,该系列对应版本为1.20.+.
一、回顾
在K8S 调度系统由浅入深系列:简介,给出整体的交互图,来构建Pod调度的直观感受,我们拓展了一下交互图,如下所示。
上述以创建一个Pod为例,简要介绍调度流程:
1. 用户通过命令行创建Pod(选择直接创建Pod而不是其他workload,是为了省略kube-controller-manager)
2. kube-apiserver经过对象校验、admission、quota等准入操作,写入etcd
3. kube-apiserver将结果返回给用户
4. 同时kube-scheduler一直监听节点、Pod事件等(流程1)
5. kube-scheduler将spec.nodeName的pod加入到调度队列中,调度系统选择pod,进入调度周期(本文介绍内容)(流程2-3)
6. kube-scheduler将pod与得分最高的节点进行binding操作(流程4)
7. kube-apiserver将binding信息写入etcd
8. kubelet监听分配给自己的Pod,调用CRI接口进行Pod创建(该部分内容后续出系列,进行介绍)
9. kubelet创建Pod后,更新Pod状态等信息,并向kube-apiserver上报
10. kube-apiserver写入数据
二、背景
1. 用户可以扩展的点比较有限,位置比较固定,无法支持灵活的扩展与调配,例如只能在执行完默认的 Filter 策略后才能调用。2. 调用扩展接口使用 HTTP 请求,其受到网络影响,性能远低于本地的函数调用。同时每次调用都需要将 Pod 和 Node 的信息进行 序列化与反序列化 操作,会进一步降低性能。3. Pod当前的相关信息,无法及时传递(利用调度Cache)。
为了解决上述问题,使调度系统代码精简、扩展性更好,社区从Kubernetes 1.16 版本开始, 引入了一种新的调度框架- Scheduling Framework 。
a. 扩展性:调度更具扩展性
b. 维护性:将调度器的一些特性移到插件中
c. 功能性
1) 框架提供扩展
2) 提供一种机制来接收插件结果并根据接收到的结果继续或终止
3) 提供一种机制处理错误与插件通信
三、原理
Framework 的调度流程是分为两个阶段:
1. 调度阶段是同步执行的,同一个周期内只有一个 scheduling cycle,线程安全
2. 绑定阶段(gouroutine)是异步执行的,同一个周期内可能会有多个 binding cycle在运行,线程不安全
调度阶段
执行PreFilterPlugins
执行FilterPlugins
执行扩展 Filter
若出现FitError,执行PostFilter
执行PreScorePlugins
执行ScorePlugins
执行扩展Prioritize
调度阶段
1. 执行WaitOnPermit,失败时调用RunReservePluginsUnreserve 2. 执行预绑定即RunPreBindPlugins,失败时调用RunReservePluginsUnreserve 3. 执行扩展bingding即extendersBinding,失败时调用RunReservePluginsUnreserve 4. 执行绑定收尾工作即RunPostBindPlugins扩展点介绍
上述涉及到的各类Plugins(图中紫色部分),针对下图,各位应该看了很多篇了,需要注意的是Unreserve的时机,各插件功能说明如下:
pkg/scheduler/framework/interface.go
扩展点 | 用途说明 |
---|---|
QueueSort | 用来支持自定义 Pod 的排序。如果指定 QueueSort 的排序算法,在调度 队列里面就会按照指定的排序算法来进行排序,只能enable一个 |
Prefilter | 对 Pod 信息的预处理,比如 Pod 的缓存等 |
Filter | 对应旧式的Predicate ,过滤不满足要求的节点 |
PostFilter | 用于处理当 Pod 在 Filter 阶段失败后的操作,例如抢占等行为 |
PreScore | 用于在 Score 之前进行一些信息生成,也可以在此处生成一些日志或者 监控信息 |
Score | 对应旧式的Priority,根据 扩展点定义的评分策略挑选出最优的节点( 打分与归一化处理) |
Reserver | 调度阶段的最后一个插件, 防止调度成功后资源的竞争, 确保集群的资源 信息的准确性 |
Permit | 主要提供了Pod绑定的拦截功能,根据条件对pod进行allow、reject或者 wait。 |
PreBind | 在真正 bind node 之前,执行一些操作 |
Bind | 一个 Pod 只会被一个 BindPlugin 处理,创建Bind对象 |
PostBind | bind 成功之后执行的逻辑 |
Unreserve | 在 Permit 到 Bind 这几个阶段只要报错就回滚数据至初始状态,类似事 务。 |
四、场景
下述为一些关于如何使用调度框架来解决常见调度场景的示例。
1. 联合调度类似kube-batch,允许调度以一定数量的Pod为整体的任务。其能够将一个训练任务的多个worker当做一个整体进行调度,只有当任务所有worker的资源都满足,才会将容器在节点上启动。
2. 集群资源的动态绑定Volume topology-aware调度可以通过filter和prebind方式实现。
3. 调度拓展该框架允许自定义插件,以main函数封装scheduler方式运行。
关于框架部分,该文就介绍到此处,接下里将进入源码阶段,后续内容为调度配置及第三方调度集成的相关内容,敬请关注。
参考资料
1. https://kubernetes.io/docs/concepts/scheduling-eviction/kube-scheduler/
2. https://kubernetes.io/docs/concepts/scheduling-eviction/scheduling-framework/
3. https://github.com/kubernetes/enhancements/blob/master/keps/sig-scheduling/624-scheduling-framework/README.md
END
往期 · 精选