K8S-调度器-亲和性与反亲和性
简介
Scheduler 是 kubernetes 的调度器,主要的任务是把定义的 pod 分配到集群的节点上。听起来非常简单,但有很多要考虑的问题:
- 公平:如何保证每个节点都能被分配资源
- 资源高效利用:集群所有资源最大化被使用
- 效率:调度的性能要好,能够尽快地对大批量的 pod 完成调度工作
- 灵活:允许用户根据自己的需求控制调度的逻辑
Sheduler 是作为单独的程序运行的,启动之后会一直监听 API Server,获取 `PodSpec.NodeName` 为空的 pod,对每个 pod 都会创建一个 binding,表明该 pod 应该放到哪个节点上
调度过程
调度分为几个部分:首先是过滤掉不满足条件的节点,这个过程称为 `预选`;然后对通过的节点按照优先级排序,这个是 `优选`;最后从中选择优先级最高的节点。如果中间任何一步骤有错误,就直接返回错误
预选
有一系列的算法可以使用:
- `PodFitsResources`:节点上剩余的资源是否大于 pod 请求的资源
- `PodFitsHost`:如果 pod 指定了 NodeName,检查节点名称是否和 NodeName 匹配
- `PodFitsHostPorts`:节点上已经使用的 port 是否和 pod 申请的 port 冲突
- `PodSelectorMatches`:过滤掉和 pod 指定的 label 不匹配的节点
- `NoDiskConflict`:已经 mount 的 volume 和 pod 指定的 volume 不冲突,除非它们都是只读
如果在 `预选` 过程中没有合适的节点,pod 会一直在 `pending` 状态,不断重试调度,直到有节点满足条件。经过这个步骤,如果有多个节点满足条件,就继续 `优选` 过程: 按照优先级大小对节点排序
优选
优先级由一系列键值对组成,键是该优先级项的名称,值是它的权重(该项的重要性)。这些优先级选项包括:
- `LeastRequestedPriority`:通过计算 CPU 和 Memory 的使用率来决定权重,使用率越低权重越高。换句话说,这个优先级指标倾向于资源使用比例更低的节点
- `BalancedResourceAllocation`:节点上 CPU 和 Memory 使用率越接近,权重越高。这个应该和上面的一起使用,不应该单独使用
- `ImageLocalityPriority`:倾向于已经有要使用镜像的节点,镜像总大小值越大,权重越高
通过算法对所有的优先级项目和权重进行计算,得出最终的结果
自定义调度器
除了 kubernetes 自带的调度器,你也可以编写自己的调度器。通过 `spec:schedulername` 参数指定调度器的名字,可以为 pod 选择某个调度器进行调度。比如下面的 pod 选择 `my-scheduler` 进行调度,而不是默认的 `default-scheduler`:
apiVersion: v1 kind: Pod metadata: name: test-scheduler labels: name: test-scheduler spec: schedulername: test-scheduler containers: - name: pod-with-second-annotation-container image: wangyanglinux/myapp:v2
亲和性
亲和性/反亲和性调度策略比较如下:
| 调度策略 | 匹配标签 | 操作符 | 拓扑域支持 | 调度目标
| nodeAffinity | 主机 | In, NotIn, Exists, DoesNotExist, Gt, Lt | 否 | 指定主机 |
| podAffinity | POD | In, NotIn, Exists, DoesNotExist | 是 | POD与指定POD同一拓扑域 |
| podAnitAffinity | POD | In, NotIn, Exists, DoesNotExist | 是 | POD与指定POD不在同一拓扑域 |
键值运算关系
- In: label 的值在某个列表中
- NotIn:label 的值不在某个列表中
- Gt: label 的值大于某个值
- Lt: label 的值小于某个值
- Exists:某个 label 存在
- DoesNotExist:某个 label 不存在
Node节点亲和性
- preferredDuringSchedulingIgnoredDuringExecution:软策略
- requiredDuringSchedulingIgnoredDuringExecution:硬策略
requiredDuringSchedulingIgnoredDuringExecution 资源清单
apiVersion: v1 kind: Pod metadata: name: affinity labels: app: node-affinity-pod spec: containers: - name: with-node-affinity image: wangyanglinux/myapp:v1 affinity: //亲和性 nodeAffinity: //节点亲和 requiredDuringSchedulingIgnoredDuringExecution: //硬限制 nodeSelectorTerms: - matchExpressions: - key: kubernetes.io/hostname //节点的label operator: NotIn //取反 values: - k8s-node02 //节点lable的value,pod将不会运行在node02上
preferredDuringSchedulingIgnoredDuringExecution 资源清单
apiVersion: v1 kind: Pod metadata: name: affinity labels: app: node-affinity-pod spec: containers: - name: with-node-affinity image: wangyanglinux/myapp:v1 affinity: nodeAffinity: preferredDuringSchedulingIgnoredDuringExecution: //软限制,尽可能优先匹配,如果未匹配到,也会调度到其他节点 - weight: 1 //权重,尽可能匹配以下标签 preference: matchExpressions: - key: source operator: In //运算符 values: - qikqiak
软限制与硬限制合起来
apiVersion: v1 kind: Pod metadata: name: affinity labels: app: node-affinity-pod spec: containers: - name: with-node-affinity image: wangyanglinux/myapp:v1 affinity: nodeAffinity: requiredDuringSchedulingIgnoredDuringExecution: # 先匹配硬限制 nodeSelectorTerms: - matchExpressions: - key: disktypeoperator: NotIn values: - hdd preferredDuringSchedulingIgnoredDuringExecution: # 匹配完硬限制后,尽量部署到node01节点,也可以匹配lable - weight: 1 preference: matchExpressions: - key: kubernetes.io/hostname operator: In values: - k8s-node01
Pod 亲和性
pod.spec.affinity.podAffinity/podAntiAffinity
- preferredDuringSchedulingIgnoredDuringExecution:软策略
- requiredDuringSchedulingIgnoredDuringExecution:硬策略
apiVersion: v1 kind: Pod metadata: name: pod-3 labels: app: pod-3
namespace: nginx spec: containers: - name: pod-3 image: wangyanglinux/myapp:v1 affinity: //亲和性 podAffinity: //pod亲和性,pod与指定pod在同一拓扑域,可以理解同一组应用依赖关系 requiredDuringSchedulingIgnoredDuringExecution: - labelSelector: matchExpressions: - key: app //pod label 标签的key operator: In values: - pod-1 //pod标签指定value,pod-3将会调度到同一个拓扑域的与指定标签相同的node
namespaces: linux # 把nginx和linux名称空间下的符合特定条件的pod部署在同一个拓扑域。
topologyKey: kubernetes.io/hostname //拓扑域 podAntiAffinity: //反亲和,pod与指定pod不在同一个拓扑域 preferredDuringSchedulingIgnoredDuringExecution: - weight: 1 podAffinityTerm: labelSelector: matchExpressions: - key: app operator: In values: - pod-2 topologyKey: kubernetes.io/hostname //查看拓扑域的key的value后,调度到非value的节点,取反
namespaces:
写了但是没有赋值,表示是匹配所有名称空间下符合条件的的pod
如果namespaces指定了value,那么匹配指定namespaces下的pod。
如果不写namespaces这一项,默认匹配当前namespace。
拓扑域概念:可以实现pod容灾调度
topologyKey: kubernetes.io/hostname
kubernetes.io/hostname 是系统默认给集群内不同的node打的标签,而且value为当前主机的hostname。不同的key和value属于不同的拓扑域。
比如有两座城市的机房,每个城市又有多个不同的机房,每个机房又有不同的机柜。可以根据这些条件划分不同的拓扑域,然后根据pod亲和或反亲和使pod部署在同一个机柜或不同城市的不同机柜。
使用lable划分拓扑域模拟多机房部署
划分拓扑域
补充:
- maxSkew: 1 用于指定pod在各个zone调度时能忍受的最大不均衡数,值越大,表示能接受的不均衡调度越大,值越小,表示各个zone调度的pod越均衡。