k8s--pod 调度、定向调度、亲和性调度、污点和容忍

介绍

在默认情况下,一个 pod 在哪个 node 节点上运行,是由 Scheduler 组件采用相应的算法算出来的,这个过程是不受人工控制的。但是在实际使用中,这并不满足需求,因为在很多情况下,我们想控制某些 pod 到达某些节点上,那么应该怎么做呢?这就涉及到 kubernetes 对 pod 的调度规则,kubernetes 提供了四大类调度方式

  • 自动调度:运行在哪个节点上完全由 Scheduler 经过一系列的算法计算得出
  • 定向调度:有两种,根据节点名称(NodeName)或者节点选择器(NodeSelector)
  • 亲和性调度:NodeAffinity、PodAffinity、PodAntiAffinity
  • 污点(容忍)调度:Taints、Toleration

默认就是自动调度,所以下面来看其他的几种调度方式

定向调度

定向调度,指的是利用在 pod 上声明 nodeName 或者 nodeSelector,以此将 pod 调度到期望的 node 节点上。注意,这里的调度是强制的,这就意味着即使要调度的目标 node 不存在,也会向上面进行调度,只不过 pod 运行失败而已

NodeName

NodeName 用于强制将 pod 调度到指定的 name 的 node 节点上,这种方式,其实是直接跳过 Scheduler 的调度逻辑,直接将 pod 调度到指定名称的节点

接下来,实验一下:创建一个 pod-nodename.yaml 文件

apiVersion: v1
kind: Pod
metadata:
  name: pod-nodename
  namespace: zouzou
spec:
  containers:
  - name: nginx
    image: nginx:1.14
  nodeName: dce-10-6-215-190 # 指定调度到 dce-10-6-215-190 节点上

 如果你不知道 nodeName 的话,使用下面命令查看

kubectl get node

创建 pod,查看 pod

# 创建 pod
kubectl apply -f pod-nodename.yaml

查看 pod 的信息,可以看到 pod 已经分配给了 dce-10-6-215-190 的节点上

# 可以看到 pod 分配到了 dce-10-6-215-190 的节点上,有人说,可能是随机分配的,那你也可以写一个不存在的 node 地址试下
[root@dce-10-6-215-215 tmp]# kubectl get pod pod-nodename -n zouzou -o wide
NAME           READY   STATUS    RESTARTS   AGE   IP               NODE               NOMINATED NODE   READINESS GATES
pod-nodename   1/1     Running   0          89s   172.29.190.141   dce-10-6-215-190   <none>           <none>
NodeSelector

NodeSelector 用于将 pod 调度到添加了指定标签的 node 节点上,它是通过 kubernetes 的 label-selector 机制实现的,也就是说,在 pod 创建之前,会由 scheduler 使用 MatchNodeSelector 调度策略进行 label 匹配,找出目标 node,然后将 pod 调度到目标节点,该匹配规则是强制约束。

接下来,实验一下:首先查看下节点的 labels

[root@dce-10-6-215-215 tmp]# kubectl get node --show-labels
NAME               STATUS   ROLES             AGE    VERSION    LABELS
dce-10-6-215-190   Ready    <none>            7d3h   v1.18.20   beta.kubernetes.io/arch=amd64,beta.kubernetes.io/os=linux,kubernetes.io/arch=amd64,kubernetes.io/hostname=dce-10-6-215-190,kubernetes.io/os=linux
dce-10-6-215-200   Ready    <none>            7d1h   v1.18.20   beta.kubernetes.io/arch=amd64,beta.kubernetes.io/os=linux,kubernetes.io/arch=amd64,kubernetes.io/hostname=dce-10-6-215-200,kubernetes.io/os=linux
dce-10-6-215-215   Ready    master,registry   8d     v1.18.20   beta.kubernetes.io/arch=amd64,beta.kubernetes.io/os=linux,kubernetes.io/arch=amd64,kubernetes.io/hostname=dce-10-6-215-215,kubernetes.io/os=linux,node-role.kubernetes.io/master=,node-role.kubernetes.io/registry=

上面有很多的标签,为了测试方便,在此基础上给两个 node 节点添加两个简单的标签

kubectl label node dce-10-6-215-190 nodeenv=pro
kubectl label node dce-10-6-215-200 nodeenv=test

在来查看下对应的标签

这样我们就给两个节点打上了标签

创建一个 pod-nodeselector.yaml 文件,并使用它创建 Pod

apiVersion: v1
kind: Pod
metadata:
  name: pod-nodeselector
  namespace: zouzou
spec:
  containers:
  - name: nginx
    image: nginx:1.14
  nodeSelector: 
    nodeenv: pro # 指定调度到具有 nodeenv=pro 标签的节点上

创建 pod 查看详情,可以看到,pod 分配给了 nodeenv=pro 的标签节点上

# 创建 pod
[root@dce-10-6-215-215 tmp]# kubectl apply -f pod-nodeselector.yaml
pod/pod-nodeselector created

# 查看 pod 在 dce-10-6-215-190 上了,你也可以写个不存在的标签测试是不是随机分配的
[root@dce-10-6-215-215 tmp]# kubectl get pod pod-nodeselector -n zouzou -o wide
NAME               READY   STATUS    RESTARTS   AGE   IP               NODE               NOMINATED NODE   READINESS GATES
pod-nodeselector   1/1     Running   0          48s   172.29.190.142   dce-10-6-215-190   <none>           <none>

亲和性调度

上面,介绍了两种定向调度的方式,使用起来非常方便,但是也有一定的问题,那就是如果没有满足条件的 node,那么 pod 将不会被运行,即使在集群中还有可用 node 列表也不行,这就限制了它的使用场景

基于上面的问题,kubernetes 还提供了一种亲和度(Affinity)调度。它在 NodeSelector 的基础上进行了扩展,可以通过配置的形式,实现优先选择满足条件的 Node 进行调度,如果没有,也可以调度到不满足条件的节点上,使调度更加灵活

Affinity 主要分为三类

  • nodeAffinity(node 亲和性):以 node 为目标,解决 pod 可以调度到哪些 node 上的问题
  • podAffinity(pod 亲和性):以 pod 为目标,解决 pod 可以和哪些已存在的 pod 部署在同一个拓扑域中的问题
  • podAntiAffinity(pod 反亲和性):以 pod 为目标,解决 pod 不能和哪些已存在 pod 部署在同一个拓扑域中的问题

关于亲和性和反亲和性使用场景的说明:

亲和性:如果两个应用频繁交互,那就有必要利用亲和性让两个应用尽可能的靠近,这样可以减少因网络通信而带来的性能损耗,比如 web 应用和 mysql,要频繁的从数据库里查询和新增数据,所以应该让他们尽可能的在一起

反亲和性:当应用采用多副本部署时,有必要采用反亲和性让各个应用实例打散分布在各个 node 上,这样可以提高服务的高可用性,当一个服务器挂掉之后,其他的 pod 还可以提供服务

NodeAffinity

首先来看一下 NodeAffinity 的可配置项: 

pod.spec.affinity.nodeAffinity
  requiredDuringSchedulingIgnoredDuringExecution  # Node节点必须满足指定的所有规则才可以,相当于硬限制
    nodeSelectorTerms  # 节点选择列表
      matchFields   # 按节点字段列出的节点选择器要求列表
      matchExpressions   # 按节点标签列出的节点选择器要求列表(推荐)
        key    #
        values #
        operat or # 关系符 支持Exists, DoesNotExist, In, NotIn, Gt, Lt
  preferredDuringSchedulingIgnoredDuringExecution # 优先调度到满足指定的规则的 Node,相当于软限制 (倾向)
    preference   # 一个节点选择器项,与相应的权重相关联
      matchFields  # 按节点字段列出的节点选择器要求列表
      matchExpressions  # 按节点标签列出的节点选择器要求列表(推荐)
        key    #
        values #
        operator # 关系符 支持In, NotIn, Exists, DoesNotExist, Gt, Lt
    weight # 倾向权重,在范围1-100。

关系符的说明

- matchExpressions:
  - key: nodeenv              # 匹配存在标签的 key 为 nodeenv 的节点
    operator: Exists
  - key: nodeenv              # 匹配标签的 key 为 nodeenv,且 value 是 "xxx" 或 "yyy" 的节点
    operator: In
    values: ["xxx","yyy"]
  - key: nodeenv              # 匹配标签的 key 为 nodeenv,且 value 大于 "xxx" 的节点
    operator: Gt
    values: "xxx"

接下来首先演示一下 requiredDuringSchedulingIgnoredDuringExecution

创建 pod-nodeaffinity-required.yaml,内容如下

apiVersion: v1
kind: Pod
metadata:
  name: pod-nodeaffinity-required
  namespace: zouzou
spec:
  containers:
  - name: nginx
    image: nginx:1.14
  affinity:  # 亲和性设置
    nodeAffinity: # 设置 node 亲和性
      requiredDuringSchedulingIgnoredDuringExecution: # 硬限制,没有满足就会失败
        nodeSelectorTerms: # node 选择器,可以有多个
        - matchExpressions: # 匹配标签
          - key: nodeenv # 标签的 key 要为 nodeenv
            operator: In  # 操作符,在里面
            values: ["xxx","yyy"] # 值在["xxx","yyy"]中的标签

创建 pod

#  创建 pod
kubectl create -f pod-nodeaffinity-required.yaml

查看 pod 和 pod 的 event

# 查看 pod ,发现 pod 没有调度到节点上,因为 nodeenv 的值没有 xxx 或者 yyy,而且是硬限制
[root@dce-10-6-215-215 tmp]# kubectl get pod pod-nodeaffinity-required -n zouzou -o wide
NAME                        READY   STATUS    RESTARTS   AGE   IP       NODE     NOMINATED NODE   READINESS GATES
pod-nodeaffinity-required   0/1     Pending   0          81s   <none>   <none>   <none>           <none>

# 从 event 可以看到,调度失败,有三个 node 节点,但是没有满足标签选择器的 node
[root@dce-10-6-215-215 tmp]# kubectl describe pod pod-nodeaffinity-required -n zouzou
Name:         pod-nodeaffinity-required
Namespace:    zouzou
Priority:     0
Node:         <none>
Labels:       <none>
......
Events:
  Type     Reason            Age   From               Message
  ----     ------            ----  ----               -------
  Warning  FailedScheduling  104s  default-scheduler  0/3 nodes are available: 3 node(s) didn't match node selector.
  Warning  FailedScheduling  30s   default-scheduler  0/3 nodes are available: 3 node(s) didn't match node selector.

从上面我们可以看出,硬限制当没有匹配的标签时,会调度失败。因为我们两个 node 节点,只有 nodeenv=pro 和 nodeenv=test 的节点,没有 nodeenv=xxx 或者 nodeenv=yyy 的节点

接下来,我们删除 pod,把 yyy 改为 pro,因为 nodeenv=pro 是存在的

# 删除 pod
kubectl delete -f pod-nodeaffinity-required.yaml

修改后在创建 pod

# 创建 pod
kubectl create -f pod-nodeaffinity-required.yaml

查看 pod

# 可以看到,pod 分配给了 dce-10-6-215-190 的节点上,并成功运行了
[root@dce-10-6-215-215 tmp]# kubectl get pod pod-nodeaffinity-required -n zouzou -o wide NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES pod-nodeaffinity-required 1/1 Running 0 17s 172.29.190.143 dce-10-6-215-190 <none> <none> # 从 event 里,也可以看出来,是成功调度的 [root@dce-10-6-215-215 tmp]# kubectl describe pod pod-nodeaffinity-required -n zouzou Name: pod-nodeaffinity-required Namespace: zouzou...... Events: Type Reason Age From Message ---- ------ ---- ---- ------- Normal Scheduled 24s default-scheduler Successfully assigned zouzou/pod-nodeaffinity-required to dce-10-6-215-190 Normal Pulled 21s kubelet Container image "nginx:1.14" already present on machine Normal Created 21s kubelet Created container nginx Normal Started 20s kubelet Started container nginx

接下来再演示一下 requiredDuringSchedulingIgnoredDuringExecution

创建 pod-nodeaffinity-preferred.yaml,内容如下

apiVersion: v1
kind: Pod
metadata:
  name: pod-nodeaffinity-preferred
  namespace: zouzou
spec:
  containers:
  - name: nginx
    image: nginx:1.14
  affinity:  # 亲和性设置
    nodeAffinity: # 设置 node 亲和性
      preferredDuringSchedulingIgnoredDuringExecution: # 软限制,没有匹配的标签也会分配给某个 node
      - weight: 1 # 权重
        preference: # 一个节点选择器项,与相应的权重相关联
          matchExpressions:  # 匹配标签
          - key: nodeenv # 标签的 key 要为 nodeenv
            operator: In  # 操作符,在里面
            values: ["xxx","yyy"] # 匹配 env 的值在["xxx","yyy"]中的标签(当前环境没有)

创建 pod

kubectl create -f pod-nodeaffinity-preferred.yaml

查看 pod 和 pod event

# 可以看到,成功分配给了 dce-10-6-215-200 的节点上
[root@dce-10-6-215-215 tmp]# kubectl get pod pod-nodeaffinity-preferred -n zouzou -o wide
NAME                         READY   STATUS    RESTARTS   AGE   IP              NODE               NOMINATED NODE   READINESS GATES
pod-nodeaffinity-preferred   1/1     Running   0          53s   172.29.34.238   dce-10-6-215-200   <none>           <none>

# 从 event 中也可以看出,pod 是调度成功的
[root@dce-10-6-215-215 tmp]# kubectl describe pod pod-nodeaffinity-preferred -n zouzou
Name:         pod-nodeaffinity-preferred
Namespace:    zouzou
Priority:     0
Node:         dce-10-6-215-200/10.6.215.200
Start Time:   Sat, 16 Apr 2022 11:45:15 +0800
......
Events:
  Type    Reason     Age   From               Message
  ----    ------     ----  ----               -------
  Normal  Scheduled  66s   default-scheduler  Successfully assigned zouzou/pod-nodeaffinity-preferred to dce-10-6-215-200
  Normal  Pulled     63s   kubelet            Container image "nginx:1.14" already present on machine
  Normal  Created    63s   kubelet            Created container nginx
  Normal  Started    62s   kubelet            Started container ngin

从上面的结果可以看出,软限制,当没有匹配到对应的标签时,也不会调度失败,会根据算法分配给合适的节点

NodeAffinity规则设置的注意事项:

  • 如果同时定义了 nodeSelector 和 nodeAffinity,那么必须两个条件都得到满足,Pod 才能运行在指定的 Node 上
  • 如果 nodeAffinity 指定了多个 nodeSelectorTerms,那么只需要其中一个能够匹配成功即可
  • 如果一个 nodeSelectorTerms 中有多个 matchExpressions ,则一个节点必须满足所有的才能匹配成功
  • 如果一个 pod 所在的 Node 在 Pod 运行期间其标签发生了改变,不再符合该 Pod 的节点亲和性需求,则系统将忽略此变化
PodAffinity

PodAffinity 主要实现以运行的 Pod 为参照,实现让新创建的 Pod 跟参照 pod 在一个区域的功能。

首先来看一下 PodAffinity 的可配置项: 

pod.spec.affinity.podAffinity
  requiredDuringSchedulingIgnoredDuringExecution  # 硬限制
    namespaces       # 指定参照 pod 的 namespace
    topologyKey      # 指定调度作用域
    labelSelector    # 标签选择器
      matchExpressions  # 按节点标签列出的节点选择器要求列表(推荐)
        key    #
        values #
        operator # 关系符 支持 In, NotIn, Exists, DoesNotExist.
      matchLabels     # 指多个 matchExpressions 映射的内容
  preferredDuringSchedulingIgnoredDuringExecution # 软限制
    podAffinityTerm   # 选项
      namespaces      
      topologyKey
      labelSelector
        matchExpressions  
          key     #
          values #
          operator
        matchLabels 
    weight # 倾向权重,在范围 1-100

topologyKey 用于指定调度时作用域

  • 如果指定为 kubernetes.io/hostname,那就是以 Node 节点为区分范围
  • 如果指定为 beta.kubernetes.io/os,则以 Node 节点的操作系统类型来区分

接下来,演示下 requiredDuringSchedulingIgnoredDuringExecution(硬限制)

首先创建一个参照 Pod,pod-podaffinity-target.yaml,内容如下

apiVersion: v1
kind: Pod
metadata:
  name: pod-podaffinity-target
  namespace: zouzou
  labels:
    podenv: pro # 给 pod 设置标签
spec:
  containers:
  - name: nginx
    image: nginx:1.14
  nodeName: dce-10-6-215-200 # 将目标 pod 明确指定到 dce-10-6-215-200 上

创建 pod

kubectl apply -f pod-podaffinity-target.yaml

接下来创建 创建 pod-podaffinity-required.yaml,内容如下:

apiVersion: v1
kind: Pod
metadata:
  name: pod-podaffinity-required
  namespace: zouzou
spec:
  containers:
  - name: nginx
    image: nginx:1.14
  affinity:  # 亲和性设置
    podAffinity: # 设置pod亲和性
      requiredDuringSchedulingIgnoredDuringExecution: # 硬限制
      - labelSelector:
          matchExpressions: # 匹配env的值在["xxx","yyy"]中的标签
          - key: podenv # 对应的是 pod 的标签,不是 node 的,上面创建参照 pod 的时候创建了一个 podenv=pro 的标签
            operator: In
            values: ["xxx","yyy"] # 不存在 podenv=xxx 或者 podenv=yyy
        topologyKey: kubernetes.io/hostname # 以 node 节点为区分范围

上面配置表达的意思是:新 Pod 必须要与拥有标签 podenv=xxx 或者 podenv=yyy 的 pod 在同一 Node 上,显然现在没有这样 pod,接下来,运行测试一下

# 创建 pod
kubectl create -f pod-podaffinity-required.yaml

查看 pod 和 pod event

# 查看 pod,发现 pod 未运行,也没有分配到节点上
[root@dce-10-6-215-215 tmp]# kubectl get pods pod-podaffinity-required -n zouzou -o wide
NAME                       READY   STATUS    RESTARTS   AGE   IP       NODE     NOMINATED NODE   READINESS GATES
pod-podaffinity-required   0/1     Pending   0          30s   <none>   <none>   <none>           <none>

# 查看 event,底下提示有三个节点,一个节点有污点(master),两个节点(node)不满足标签规则
[root@dce-10-6-215-215 tmp]#
[root@dce-10-6-215-215 tmp]# kubectl describe pod pod-nodeaffinity-preferred -n zouzou
Name:         pod-nodeaffinity-preferred
Namespace:    zouzou
Priority:     0
Node:         dce-10-6-215-200/10.6.215.200
Start Time:   Sat, 16 Apr 2022 11:45:15 +0800
......
Events:
  Type     Reason            Age   From               Message
  ----     ------            ----  ----               -------
  Warning  FailedScheduling  51s   default-scheduler  0/3 nodes are available: 1 node(s) had taint {node-role.kubernetes.io/master: }, that the pod didn't tolerate, 2 node(s) didn't match pod affinity rules, 2 node(s) didn't match pod affinity/anti-affinity.

接下来修改 values: ["xxx","yyy"]----->values:["pro","yyy"]

意思是:新 Pod 必须要与拥有标签 podenv=xxx 或者 podenv=yyy 的 pod 在同一 Node 上

修改完之后重新创建 pod

# 创建 pod
kubectl create -f pod-podaffinity-required.yaml

查看 pod,是正常运行的

# 查看 pod,pod 是正常运行的
[root@dce-10-6-215-215 tmp]# kubectl get pods pod-podaffinity-required -n zouzou -o wide
NAME                       READY   STATUS    RESTARTS   AGE   IP              NODE               NOMINATED NODE   READINESS GATES
pod-podaffinity-required   1/1     Running   0          36s   172.29.34.240   dce-10-6-215-200   <none>           <none>

# 查看 event,正常
[root@dce-10-6-215-215 tmp]# kubectl describe pods pod-podaffinity-required -n zouzou
Name:         pod-podaffinity-required
Namespace:    zouzou
Priority:     0
Node:         dce-10-6-215-200/10.6.215.200
Start Time:   Sat, 16 Apr 2022 12:19:04 +0800
......
Events:
  Type    Reason     Age   From               Message
  ----    ------     ----  ----               -------
  Normal  Scheduled  41s   default-scheduler  Successfully assigned zouzou/pod-podaffinity-required to dce-10-6-215-200
  Normal  Pulled     39s   kubelet            Container image "nginx:1.14" already present on machine
  Normal  Created    38s   kubelet            Created container nginx
  Normal  Started    38s   kubelet            Started container nginx

可以看到,我们的参考 pod 在 dce-10-6-215-200节点上,配置了 pod 亲和性之后,也在 dce-10-6-215-200 节点上

关于 PodAffinity 的 preferredDuringSchedulingIgnoredDuringExecution,这里不再演示。

PodAntiAffinity

PodAntiAffinity 主要实现以运行的 Pod 为参照,让新创建的 Pod 跟参照 pod 不在一个区域中的功能。

它的配置方式和选项跟 PodAffinty 是一样的,这里不再做详细解释,直接做一个测试案例。

继续使用上个案例中目标 pod,pod-podaffinity-target.yaml

创建 pod-podantiaffinity-required.yaml,内容如下:

apiVersion: v1
kind: Pod
metadata:
  name: pod-podantiaffinity-required
  namespace: zouzou
spec:
  containers:
  - name: nginx
    image: nginx:1.14
  affinity:  # 亲和性设置
    podAntiAffinity: #设置 pod 反亲和性
      requiredDuringSchedulingIgnoredDuringExecution: # 硬限制
      - labelSelector:
          matchExpressions: # 匹配env的值在["xxx","yyy"]中的标签
          - key: podenv # 对应的是 pod 的标签,不是 node 的,上面创建参照 pod 的时候创建了一个 podenv=pro 的标签
            operator: In
            values: ["pro"] # 反亲和性,不在和 pod 的标签 podenv=pro 的节点上
        topologyKey: kubernetes.io/hostname # 

创建 pod

 kubectl create -f pod-podantiaffinity-required.yaml

可以看到,因为我们设置了反亲和性,创建的 pod 就没有和 podenv=pro 标签的 pod 在一台 node 机器上

污点和容忍

污点(Taints)

前面的调度方式都是站在 pod 的角度上,通过在 pod 上添加属性,来确定 pod 是否要调度到指定的 node 上,其实我们也可以站在 node 的角度上,通过在 node 上添加污点属性,来决定是否允许 pod 调度过来

node 被设置上污点之后就和 pod 之间存在了一种互斥的关系,进而拒绝 pod 调度进来,甚至可以将已经存在的 pod 驱逐出去

污点的格式为:key=value:effect,key 和 value 是污点的标签,effect 描述污点的作用,支持如下三个选项

  • PreferNoSchedule:kubernetes 将尽量避免把 Pod 调度到具有该污点的 Node上,除非没有其他节点可调度
  • NoSchedule:kubernetes 将不会把 Pod 调度到具有该污点的 Node 上,但不会影响当前 Node 上已存在的 Pod
  • NoExecute:kubernetes 将不会把 Pod 调度到具有该污点的 Node 上,同时也会将 Node 上已存在的 Pod 驱离

使用 kubectl 设置和去除污点的命令示例如下:

# 设置污点
kubectl taint nodes node1 key=value:effect

# 去除污点
kubectl taint nodes node1 key:effect-

# 去除所有污点
kubectl taint nodes node1 key-

接下来,演示下污点的效果

  1. 准备一个节点,为了演示效果更加明显,只需要一个 master 和一个 worker 即可
  2. 为 node 节点设置一个污点:tag=hihi:PreferNoSchedule,然后创建 pod1
  3. 修改 node 节点的污点:tag=hihi:NoSchedule,然后创建 pod2
  4. 修改 node 节点的污点:tag=NoExecute,然后创建 pod3
# 为 node 设置污点(PreferNoSchedule)
kubectl taint node dce-10-6-215-190 tag=hihi:PreferNoSchedule

查看节点 dce-10-6-215-190 的污点,使用下面命令

# 查看 dce-10-6-215-190 节点的污点
kubectl describe node dce-10-6-215-190

创建 pod

# 创建 pod,名称叫 demo1
[root@dce-10-6-215-215 tmp]# kubectl run demo1 --image=nginx:1.14 -n zouzou
[root@dce-10-6-215-215 tmp# kubectl get pods -n zouzou -o wide
NAME                      READY   STATUS    RESTARTS   AGE     IP           NODE   
demo1-7665f7fd85-574h4   1/1     Running   0          2m24s   10.244.1.59   dce-10-6-215-190

从结果可以看到,我们创建的 pod 运行在了 dce-10-6-215-190 的节点上,虽然 dce-10-6-215-190 我们添加了污点,但污点是 tag=hihi:PreferNoSchedule,也就是尽量避免不添加到有污点的节点上,但只有这一个 worker 节点,所以也就调度到了 dce-10-6-215-190 的节点上

删除污点,创建一个新污点,不能修改

# 删除污点 tag:PreferNoSchedule-
kubectl taint node dce-10-6-215-190 tag:PreferNoSchedule-

删除后,在去查看已经没有了

# 查看污点
kubectl describe node dce-10-6-215-190

设置 NoSchedule 污点

# 给 dce-10-6-215-190 节点设置污点 tag=hihi:NoSchedule
 kubectl taint node dce-10-6-215-190 tag=hihi:NoSchedule

查看污点

在来创建一个新 pod 查看是否可以成功创建

# 创建 pod,名称为 demo2
[root@dce-10-6-215-215 tmp]# kubectl run demo2 --image=nginx:1.14 -n zouzou


[root@dce-10-6-215-215 tmp]# kubectl get pods -n zouzou -o wide
NAME                      READY   STATUS    RESTARTS   AGE     IP            NODE
demo1-7665f7fd85-574h4   1/1     Running   0          2m24s   10.244.1.59   dce-10-6-215-190
demo2-544694789-6zmlf    0/1     Pending   0          21s     <none>        <none>  

从上面可以看出,我们新创建的 pod demo2 没有创建成功,但 demo1 还是正常运行的,因为我们创建的污点是 tag=hihi:NoSchedule(kubernetes 将不会把 Pod 调度到具有该污点的 Node 上,但不会影响当前 Node 上已存在的 Pod)

删除污点,创建一个新污点,不能修改

# 删除污点
kubectl taint node dce-10-6-215-190 tag:NoSchedule-

删除后,在去查看已经没有了

# 查看污点
kubectl describe node dce-10-6-215-190

设置 NoExecute 污点

# 给 dce-10-6-215-190 节点设置污点 tag=hihi:NoExecute
kubectl taint node dce-10-6-215-190 tag=hihi:NoExecute

查看污点,污点已经设置成功了

在来创建一个新 pod 查看是否可以成功创建

# 创建 pod,名称叫 demo3
[root@dce-10-6-215-215 tmp]# kubectl run demo3 --image=nginx:1.14 -n zouzou
[root@dce-10-6-215-215 tmp]# kubectl get pods -n zouzou -o wide
NAME                      READY   STATUS    RESTARTS   AGE   IP       NODE     NOMINATED 
demo1-7665f7fd85-htkmp   0/1     Pending   0          35s   <none>   <none>   <none>    
demo2-544694789-bn7wb    0/1     Pending   0          35s   <none>   <none>   <none>     
demo3-6d78dbd749-tktkq   0/1     Pending   0          6s    <none>   <none>   <none>    

从上面结果可以看出,pod demo3 没有创建成功,而之前成功的 pod demo1 也被移除了,这是因为我们设置的污点是 tag=hihi:NoExecute(不会把 Pod 调度到具有该污点的 Node 上,同时也会将 Node 上已存在的 Pod 驱离)

使用 kubeadm 搭建的集群,默认就会给 master 节点添加一个污点标记,所以 pod 就不会调度到 master 节点上

容忍(Toleration)

上面介绍了污点的作用,我们可以在 node 上添加污点用于拒绝 pod 调度上来,但是如果就是想将一个 pod 调度到一个有污点的 node 上去,这时候应该怎么做呢?这就要使用到容忍

污点就是拒绝,容忍就是忽略,Node 通过污点拒绝 pod 调度上去,Pod 通过容忍忽略拒绝

下面先通过一个案例看下效果:

  • 上面,已经在 dce-10-6-215-190  节点上打上了 NoExecute 的污点,此时 pod 是调度不上去的
  • 可以通过给 pod 添加容忍,然后将其调度上去

创建 pod-toleration.yaml 内容如下,先创建个不添加容忍的,创建 pod 查看效果,在创建个添加了容忍的,创建 pod,查看效果

apiVersion: v1
kind: Pod
metadata:
  name: pod-toleration
  namespace: dev
spec:
  containers:
  - name: nginx
    image: nginx:1.17.1
  tolerations:      # 添加容忍,下面的意思就是:tag=hihi:NoExecute
  - key: "tag"        # 要容忍的污点的key
    operator: "Equal" # 操作符,Equal 为等于
    value: "hihi"    # 容忍的污点的value
    effect: "NoExecute"   # 添加容忍的规则,这里必须和标记的污点规则相同
# 添加容忍之前的pod
[root@dce-10-6-215-215 tmp]# kubectl get pods -n zouzou -o wide
NAME             READY   STATUS    RESTARTS   AGE   IP       NODE     NOMINATED 
pod-toleration   0/1     Pending   0          3s    <none>   <none>   <none>           

# 添加容忍之后的pod
[root@dce-10-6-215-215 tmp]# kubectl get pods -n zouzou -o wide
NAME             READY   STATUS    RESTARTS   AGE   IP            NODE    NOMINATED
pod-toleration   1/1     Running   0          3s    10.244.1.62   dce-10-6-215-190   <none>        

可以看到,添加了容忍之后,节点有 node,也可以创建成功

下面看一下容忍的详细配置

[root@dce-10-6-215-215 tmp]# kubectl explain pod.spec.tolerations
......
FIELDS:
   key       # 对应着要容忍的污点的键,空意味着匹配所有的键
   value     # 对应着要容忍的污点的值
   operator  # key-value 的运算符,支持 Equal 和 Exists(默认),Exists 是存在的意思,只判断 key,不需要写 value,只要 key 存在就行
   effect    # 对应污点的effect,空意味着匹配所有影响
   tolerationSeconds   # 容忍时间, 当 effect 为 NoExecute 时生效,表示之前在你 node 节点上的 pod 的停留时间,超过了这个时间,node 就会将 pod 移除

删除多个污点

上面我们 dce-10-6-215-190 已经有一个污点了,接下来在添加一个污点

 上面节点上已经有两个污点了,可以使用下面命令删除相同 key 的污点

# 删除相同 key 的污点,这里删除 key=tag 的污点
kubectl taint nodes dce-10-6-215-190 tag-

 

posted @ 2022-07-17 23:05  邹邹很busy。  阅读(995)  评论(0编辑  收藏  举报