k8s-污点 (Taint)和容忍 (Tolerations)
一.污点(Taint)
节点亲和性,是pod的一种属性(偏好或硬性要求),它使pod被吸引到一类特点的节点
Taint则相反,它使节点能够排斥一类特定的pod
Taint和Toleration相互配合,可以用来避免pod被分配到不合适的节点上。每个节点上都可以应用一个或多个taint,这表示对于那些不能容忍这些taint的pod,是不会被该节点接受的。如果将toleration应用于pod上,则表示这些pod可以(但不一定)被调度到具有匹配taint的节点上。
1.污点简介
- 如果一个节点被标记为有污点,那么意味着不允许pod调度到该节点,除非pod也被标记为可以容忍污点节点
- 在使用kubeadm部署的k8s集群的时候应该会发现,通常情况下,应用是不会调度到master节点的。因为kubeadm部署的k8s集群默认给master节点加了Taints(污点)
[root@master1 ~]# kubectl get nodes NAME STATUS ROLES AGE VERSION master1 Ready control-plane,master 185d v1.21.0 master2 Ready control-plane,master 185d v1.21.0 node1 Ready <none> 185d v1.21.0 node2 Ready <none> 185d v1.21.0 node3 Ready <none> 185d v1.21.0 [root@master1 ~]# [root@master1 ~]# [root@master1 ~]# kubectl describe node master1 |grep Taints Taints: node-role.kubernetes.io/master:NoSchedule [root@master1 ~]#
2.污点的组成
- 使用kubectl taint命令可以给某个Node节点设置污点,Node被设置上污点之后就和Pod之间存在了一种相斥的关系,可以让Node拒绝Pod的调度执行,甚至将Node已经存在的Pod驱逐出去
每个污点的组成如下
#每个污点有一个 key 和 value 作为污点的标签,其中 value 可以为空,effect 描述污点的作用
key=value:effect
污点有三种策略:
PreferNo Schedule:
- NoSchedule的软策略版本,表示尽量不调度到污点节点上去
NoExcute:
- 表示k8s将不会将pod调度到具有该污点的Node上,同时会将Node上已经存在的pod驱逐出去
- 注:(若节点上设置了污点并用的是NoExecute策略,node节点上的pod会被全部驱逐,但是如果是Deployment或者Statefulset资源类型,为了维持副本数量则会在别的Node上再创建新的pod)
Noschedule:
- 表示k8s将不会将pod调度到具有该污点的Node上
3.污点的设置和去除
使用kubectl设置和去除污点的命令示例如下:
# 设置污点 kubectl taint nodes node1 xtz=value1:NoSchedule # 去除污点 kubectl taint nodes node1 xtz:NoSchedule- #节点说明中,查找 Taints 字段 kubectl describe node node-name
对于使用二进制手动部署的集群设置和移除这个污点的命令如下:
kubectl taint nodes <node-name> node-role.kubernetes.io/master=:NoSchedule
kubectl taint nodes <node-name> node-role.kubernetes.io/master:NoSchedule-
二、容忍(Tolerations)
1.容忍简介
设置了污点的Node将根据taint的effect:NoSchedule、PreferNoSchedule、NoExecute和pod之间产生互斥的关系,pod将在一定程度上不会被调度到Node上。但我们可以在pod上设置容忍(Toleration),意思是设置了容忍的Pod将可以容忍污点的存在,可以被调度到存在污点的Node上。
2.容忍的基本用法
1.pod的Toleration声明中的key和effect需要与Taint的设置保持一致,并且满足以下条件之一:
- operator 的值为 Exists,这时无需指定 value
- operator 的值为 Equal 并且 value 相等
- 如果不指定 operator,则默认值为 Equal
2.另外还有如下两个特例:
- 空的key可以配置Exists操作符能够匹配所有的健和值
- 空的effect匹配所有的effect
3.上面的例子中effect的取值为NoSchedule,下面对effect的值做下简单说明:
- NoSchedule:如果一个pod没有声明容忍这个Taint,则系统不会把该pod调度到有这个Taint的node上
- PreferNoSchdule:NoSchedule的软限制版本,如果一个pod没有声明容忍这个Taint,则系统会尽量避免把这个pod调度到这一节点上去,但不是强制的
- NoExcute:定义pod的驱逐行为,以应对节点故障
4.NoExecute这个Taint效果对节点上正在运行的pod有以下影响:
- 没有设置Roleration的pod会被立刻驱逐
- 配置了对应Toleration的pod,如果没有为TolerationSeconds赋值,则会一直留在这一节点中
- 配置了对应的Toleration的pod且指定了TolerationSeconds赋值,则会在指定时间内驱逐
5.在pod上设置容忍的两个特例
(1)当不指定key值时,表示容忍所有的污点key:
tolerations: - operator: "Exists"
(2)当不指定effect值时,表示容忍所有的污点作用:
tolerations: - key: "key" operator: "Exists"
注意:
在节点故障情况下,为了保持现存的pod驱逐的限速设置,系统将会以限速的模式逐步给node设置Taint,这就能防止在一些特定情况下(比如master暂时失联)造成的大量的pod被驱逐的后果。这一功能兼容于Toleration Seconds,允许pod定义节点故障时持续多久才被驱逐。
6.有多个master存在时,防止资源浪费,可以如下设置
kubectl taint node Master-Name node-role.kubernetes.io/master=:PreferNoSchedule #如果某个 Node 更新升级系统组件,为了防止业务长时间中断,可以先在该 Node 设置 NoExecute 污点,把该 Node 上的 Pod 都驱逐出去 kubectl taint node node01 check=mycheck:NoExecute #此时如果别的 Node 资源不够用,可临时给 Master 设置 PreferNoSchedule 污点,让 Pod 可在 Master 上临时创建 kubectl taint node master node-role.kubernetes.io/master=:PreferNoSchedule #待所有 Node 的更新操作都完成后,再去除污点 kubectl taint node node01 check=mycheck:NoExecute-
3.示例
#设置污点 kubectl taint node node01 check=mycheck:NoExecute kubectl taint node node02 check=mycheck:NoExecute #创建测试模板 vim pod3.yaml apiVersion: v1 kind: Pod metadata: name: myapp01 labels: app: myapp01 spec: containers: - name: with-node-affinity image: soscscs/myapp:v1 #运行 kubectl apply -f pod3.yaml #在两个 Node 上都设置了污点后,此时 Pod 将无法创建成功 kubectl get pods -o wide #修改测试模板 vim pod3.yaml apiVersion: v1 kind: Pod metadata: name: myapp01 labels: app: myapp01 spec: containers: - name: with-node-affinity image: soscscs/myapp:v1 tolerations: - key: check operator: Equal value: mycheck effect: NoExecute tolerationSeconds: 60 #其中的 key、vaule、effect 都要与 Node 上设置的 taint 保持一致 #operator 的值为 Exists 将会忽略 value 值,即存在即可 #tolerationSeconds 用于描述当 Pod 需要被驱逐时可以在 Node 上继续保留运行的时间 kubectl delete -f pod3.yaml kubectl apply -f pod3.yaml #在设置了容忍之后,Pod 创建成功 kubectl get pods -o wide
- 其中key, vaule, effect要与Node上设置的taint保持一致
- operator的值为Exists将会忽略value值
- tolerationSeconds用于描述当Pod需要被驱逐时可以在Pod上继续保留运行的时间
4.多污点与多容忍配置
系统允许在同一个node上设置多个taint,也可以在pod上设置多个Toleration
Kubernetes调度器处理多个Taint和Toleration能够匹配的部分,剩下的没有忽略的Taint就是对Pod的效果了。下面是几种情况
(1)如果剩余的Taint中存在effect=NoSchedule,则调度器不会把pod调度到这一节点上
(2)如果剩余的Taint中没有NoSchedule的效果,但是有PreferNoSchedule效果,则调度器会尝试不会pod指派给这个节点
(3)如果剩余Taint的效果有NoExecute的,并且这个pod已经在该节点运行,则会被驱逐;如果没有在该节点上运行,也不会再被调度到该节点上。
kubectltaint nodes node1 key1=value1:NoSchedule kubectl taint nodes node1 key1=value1:NoExecute kubectl taint nodes node1 key2=value2:NoSchedule
三、警戒(cordon)和转移(drain)
对节点执行维护操作:
#将 Node 标记为不可调度的状态,这样就不会让新创建的 Pod 在此 Node 上运行
kubectl cordon node1 #该node将会变为SchedulingDisabled状态
#kubectl drain 可以让 Node 节点开始释放所有 pod,并且不接收新的 pod 进程。drain 本意排水,意思是将出问题的 Node 下的 Pod 转移到其它 Node 下运行
kubectl drain <NODE_NAME> --ignore-daemonsets --delete-local-data --force
#kubectl uncordon 将 Node 标记为可调度的状态
kubectl uncordon <NODE_NAME>
–ignore-daemonsets:
无视 DaemonSet 管理下的 Pod
–delete-local-data:
如果有 mount local volume 的 pod,会强制杀掉该 pod
–force:
强制释放不是控制器管理的 Pod,例如 kube-proxy
注:执行 drain 命令,会自动做了两件事情:
1.设定此 node 为不可调度状态(cordon)
2.evict(驱逐)了 Pod
四、pod启动阶段(相位phase)
pod创建完之后,一直到持久运行起来,中间有很多步骤,也就是很多出错的可能,因此会有很多不同的状态
一般来说,pod这个过程包含以下几个步骤:
(1)调度到某台node上。kubernetes根据一定的优先级算法选择一台node节点将其作为pod运行的node
(2)拉取镜像
(3)挂载存储配置等
(4)运行起来。如果有健康检查,会根据检查的结果来设置其状态
phase的可能状态有:
- Pending:表示ApiServer创建了pod资源对象已经存入了etcd中,但是并末被调度完成(比如还没有调度到某台node上),或者仍然处于从仓库下载镜像的过程中
- running:Pod已经被调度到某节点上,并且pod中所有容器都已经被kubelet创建,至少有一个容器正在运行,或者正处于启动或者重启状态(就是说running状态下的pod不一定能被正常访问)
- Succeded:有些pod不是长久运行的,比如job、cronjob,一段时间后pod中的所有容器都被成功终止,并且不会被重启。需要反馈任务执行的结果
- Failed:pod中的所有容器都已经被终止了,并且至少有一个容器是因为失败终止。也就是说,容器以非零状态退出或者被系统终止,比如command写的有问题
- Unknown:表示无法读取pod状态,通常kube-controller-manager无法与pod通信
五、故障排除步骤
查看Pod事件 kubectl describe TYPE NAME_PREFIX 查看Pod日志(Failed状态下) kubectl logs <POD_NAME> [-c Container_NAME] 进入Pod(状态为running,但是服务没有提供) kubectl exec –it <POD_NAME> bash 查看集群信息 kubectl get nodes 发现集群状态正常 kubectl cluster-info 查看kubelet日志发现 journalctl -xefu kubelet
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· AI与.NET技术实操系列(二):开始使用ML.NET
· 记一次.NET内存居高不下排查解决与启示
· 探究高空视频全景AR技术的实现原理
· 理解Rust引用及其生命周期标识(上)
· 浏览器原生「磁吸」效果!Anchor Positioning 锚点定位神器解析
· 全程不用写代码,我用AI程序员写了一个飞机大战
· DeepSeek 开源周回顾「GitHub 热点速览」
· 记一次.NET内存居高不下排查解决与启示
· 物流快递公司核心技术能力-地址解析分单基础技术分享
· .NET 10首个预览版发布:重大改进与新特性概览!