kubernetes集群系列资料14--scheduler介绍
一、scheduler介绍
scheduler主要任务按照一定规则把定义的pod分配到集群的node上。scheduler作为单独的程序运行,启动之后会一直监听API server,获取podSpec.NodeName为空的pod,对每个pod都会创建一个binding,表明该pod应该放到哪个node上。调度会考虑到很多问题:
效率:调度的性能要好,能够尽快地对大批量的pod完成调度工作;
公平:如何保证每个节点都能被分配资源;
资源高效利用:集群所有资源最大化被使用;
灵活:允许用户根据自己的需求控制调度的逻辑。
调度过程:
1)过滤掉不满足条件的node,这个过程称为predicate;如果在predicate过程中没有合适的节点,pod会一直在pending状态,不断重试调度,直到有节点满足条件。经过这个步骤,如果有多个节点满足条件,就继续priority过程。
2)对通过的node按照优先级排序,该过程称为priority;
3)最后从中选择优先级最高的node。
该过程任何一步骤错误,就直接返回错误。
predicate有一系列的算法可以使用:
podFitsResources:节点上剩余的资源是否大于pod请求的资源;如果不满足,直接pass掉该node。
podFitsHost:如果pod指定了nodeName,检查节点名称是否和NodeName匹配;如果不满足,直接pass掉该node。
podFitsHostPorts:节点上已经使用的port是否和pod申请的port冲突;如果不满足,直接pass掉该node。
podSelectorMatches:过滤掉和pod指定的label节点是否匹配;如果不匹配,直接pass掉该node。
NoDiskConflict:已经mount的volume和pod指定的volume是否冲突;如果冲突,直接pass掉该node,除非它们都是只读。
priority:优先级由一系列键值对组成,键是该优先级项的名称,值是它的权重(该项的重要性)。这些优先级选型包括:
LeastRequestedPriority:通过计算CPU和memory的使用率来决定权重,使用率越低权重越高。换句话说,这个优先级指标倾向于资源使用比例更低的节点。
BalanceResourceAllocation: 节点上CPU和memory使用率越接近,权重越高;该键与上面的键一起使用,不应单独使用。
ImageLocalityPriority:倾向于已经有要使用镜像的节点,镜像总大小值越大,权重越高。
通过算法对所有的优先级项目和权重进行计算,得出最终结果。
自定义调度器:
除了K8S自带的调度器default-scheduler,你可以编写自己的调度器。通过spec:schedulername参数指定调度器的名字,可以为pod选择某个调度器进行调度。
node亲和性
pod.spec.affinity.nodeAffinity
preferredDuringSchedulingIgnoredDuringExecution:软策略,pod优先调度到该node;若不满足则可进行其他调度;pod有多个软策略时,则会优先选择权重较高的node;
requiredDuringSchedulingIgnoredDuringExecution:硬策略,pod必须调度到该node;若不满足则不调度,会报错;
kubectl get node --show-labels #查询node的label;
kubernetes.io/hostname为键名,k8s-node02为键值。
键值运算关系:
In:label的值在某个列表中;
NotIn:label的值步在某个列表中;
Gt:label的值大于某个值;
Lt:label的值小于某个值;
Exists:某个label存在;
DosesNotExist:某个label不存在;
pod亲和性
pod.spec.affinity.podAffinity/podAntiAffinity
preferredDuringSchedulingIgnoredDuringExecution:软策略,;
requiredDuringSchedulingIgnoredDuringExecution:硬策略;
亲和性/反亲和性调度策略比较如下:
污点taint
节点亲和性,是pod的一种属性(偏好或硬性要求),它使pod被吸引到一类特定的节点。taint则相反,它使得节点排斥一类特定的pod。
taint和toleration相互配合,可用来避免pod被分配到不合适的节点上。每个节点上都可以应用一个或多个taint,这表示对于那些不能容忍这些taint的pod,是不会被该节点接受的。如果将toleration应用于pod上,则表示这些pot可以(但不要求)被调度到具有匹配taint的节点上。
可使用kubectl taint命令给某个node设置污点,此后node和某类pod存在排斥关系,可让node拒绝某pod的调度执行,甚至可以将node中已存在的pod驱逐出去。
每个污点的组成如下:
key=value:effect
每个污点有一个key(自行定义)和value(自行定义)作为污点的标签,其中value可为空,effect描述污点的作用。当前effect支持如下3个选项:
NoSchedule:表示k8s将不会将pod调度到具有该污点的node上。
PreferNoSchedule:表示k8s将尽量避免将pod调度到具有该污点的node上。
NoExecute:表示将k8s将不会将pod调度到具有该污点的node上,同时会将node上已存在的pod驱逐去除。
案例1:node亲和性---硬策略
cat >node_hard_policy.yaml<<eof apiVersion: v1 kind: Pod metadata: name: nod-affinity-required labels: app: nod-affinity-required spec: containers: - name: nod-affinity-required image: hub.atguigu.com/library/nginx:latest affinity: nodeAffinity: requiredDuringSchedulingIgnoredDuringExecution: nodeSelectorTerms: - matchExpressions: - key: kubernetes.io/hostname operator: NotIn values: - k8s-node02 eof kubectl apply -f node_hard_policy.yaml kubectl get pod -o wide kubectl delete -f node_hard_policy.yaml kubectl get pod -o wide kubectl apply -f node_hard_policy.yaml kubectl get pod -o wide kubectl delete -f node_hard_policy.yaml kubectl apply -f node_hard_policy.yaml kubectl get pod -o wide
结果显示:硬策略要求必须每次不能调度到node2节点。当修改为IN时,会立即调度到node2;当修改为调度到不存在的node时,则会任务会pending。
案例2:node亲和性---软策略
cat >node_soft_policy.yaml<<eof apiVersion: v1 kind: Pod metadata: name: nod-affinity-preferred labels: app: nod-affinity-preferred spec: containers: - name: nod-affinity-preferred image: hub.atguigu.com/library/nginx:latest affinity: nodeAffinity: preferredDuringSchedulingIgnoredDuringExecution: - weight: 1 preference: matchExpressions: - key: kubernetes.io/hostname operator: In values: - k8s-node02 eof
kubectl apply -f node_soft_policy.yaml kubectl get pod -o wide kubectl delete -f node_soft_policy.yaml kubectl apply -f node_soft_policy.yaml kubectl get pod -o wide kubectl delete -f node_soft_policy.yaml kubectl apply -f node_soft_policy.yaml kubectl get pod -o wide
结果显示:软策略要求优先调度到node2节点。当修改为调度到不存在的node时,则会随机调度。
案例3:pod亲和性
cat >pod-1.yaml<<eof apiVersion: v1 kind: Pod metadata: name: node01 labels: app: node01 spec: containers: - name: node01 image: hub.atguigu.com/library/nginx:latest eof kubectl apply -f pod-1.yaml kubectl get pod -o wide --show-labels cat >pod-2.yaml<<eof apiVersion: v1 kind: Pod metadata: name: node02 labels: app: node02 spec: containers: - name: node02 image: hub.atguigu.com/library/nginx:latest eof kubectl apply -f pod-2.yaml kubectl get pod -o wide --show-labels cat >pod-affinity.yaml<<eof apiVersion: v1 kind: Pod metadata: name: pod-3 labels: app: pod-3 spec: containers: - name: pod-3 image: hub.atguigu.com/library/nginx:latest affinity: podAffinity: requiredDuringSchedulingIgnoredDuringExecution: - labelSelector: matchExpressions: - key: app operator: In values: - node01 topologyKey: kubernetes.io/hostname podAntiAffinity: preferredDuringSchedulingIgnoredDuringExecution: - weight: 1 podAffinityTerm: labelSelector: matchExpressions: - key: app operator: In values: - node02 topologyKey: kubernetes.io/hostname eof kubectl apply -f pod-affinity.yaml kubectl get pod -o wide kubectl delete -f pod-affinity.yaml kubectl apply -f pod-affinity.yaml kubectl get pod -o wide kubectl delete -f pod-affinity.yaml kubectl apply -f pod-affinity.yaml kubectl get pod -o wide kubectl delete -f pod-affinity.yaml kubectl apply -f pod-affinity.yaml kubectl get pod -o wide
结果显示:所有pod都调度到亲和性高的pod;软硬策略与node亲和性类似。
案例4:污点
cat >pod-1.yaml<<eof apiVersion: v1 kind: Pod metadata: name: node01 labels: app: node01 spec: containers: - name: node01 image: hub.atguigu.com/library/nginx:latest affinity: nodeAffinity: requiredDuringSchedulingIgnoredDuringExecution: nodeSelectorTerms: - matchExpressions: - key: kubernetes.io/hostname operator: In values: - k8s-node01 eof kubectl apply -f pod-1.yaml cat >pod-2.yaml<<eof apiVersion: v1 kind: Pod metadata: name: node02 labels: app: node02 spec: containers: - name: node02 image: hub.atguigu.com/library/nginx:latest affinity: nodeAffinity: requiredDuringSchedulingIgnoredDuringExecution: nodeSelectorTerms: - matchExpressions: - key: kubernetes.io/hostname operator: In values: - k8s-node02 eof kubectl apply -f pod-2.yaml kubectl get pod -o wide --show-labels kubectl describe node k8s-master01 |grep Taints #查看k8s-master01节点存在污点:NoSchedule;所以,该节点不会被调度任务。 kubectl taint nodes k8s-node01 kill=node01:NoExecute kubectl get pod -o wide --show-labels
结果表明:设置污点后,可将pod从node驱逐。
案例5:toleration
kubectl describe node k8s-node02 |grep Taints #查看taint设置,以便填写 cat >pod-1-1.yaml<<eof apiVersion: v1 kind: Pod metadata: name: node01 labels: app: node01 spec: containers: - name: node01 image: hub.atguigu.com/library/nginx:latest tolerations: - key: "kill" operator: "Equal" value: "node01" effect: "NoExecute" tolerationSeconds: 3600 eof kubectl apply -f pod-1-1.yaml kubectl get pod -o wide --show-labels
结果表明:设置了toleration的污点允许调度。
案例6:通过nodeName指定node调度
cat >assign_node_schedule.yaml<<eof apiVersion: extensions/v1beta1 kind: Deployment metadata: name: nginx-deployment spec: replicas: 7 template: metadata: labels: app: nginx spec: nodeName: k8s-node02 containers: - name: nginx image: hub.atguigu.com/library/nginx:latest ports: - containerPort: 80 eof kubectl apply -f assign_node_schedule.yaml kubectl get pod -o wide --show-labels