Kubernetes 中必备的 10 个告警处置方法

运行 Kubernetes 集群,显然不止是启动,还需要持续监控,以确保 Kubernetes 中的服务能正常运行。

不过,您不想整天盯着一堆 Kubernetes 仪表板(即便仪表板再多么美观)。您希望使用适当的警报来设置 Kubernetes 警报,对吗?

借助 k8s 警报,您将快速发现 Kubernetes 集群中的问题,并希望也能快速修复它们。那么问题来了,最应该关注的警报有哪些?

1. 过高的 CPU 使用率

为什么这很重要

Kubernetes Pod 超出其 CPU 限制时,将触发此警报,表明可能存在资源争用或资源分配效率低下。如果 CPU 限制不断达到,则可能导致应用程序响应时间变慢和潜在的服务中断。简而言之,你不希望看到这种情况发生。

行动

调查受影响的 Pod,并考虑调整资源限制或优化应用程序。

使用以下命令检查受影响 Pod 的 CPU 使用率:

kubectl top pod <pod_name> -n <namespace>

要调整 pod 的资源限制,请编辑其 YAML 配置文件:

kubectl edit pod <pod_name> -n <namespace>

在 YAML 文件中,修改“resources”部分以调整 CPU 限制:

resources:
  limits:
    cpu: <new_cpu_limit>

替换为所需的 CPU 限制值。

2. 已达到 CPU 使用限制

为什么这很重要

与上一个警报类似,当 Pod 达到其 CPU 限制时,此警报会发出通知。

行动

分析工作负载的资源需求和扩展要求,以防止性能下降。

运行以下命令以获取与受影响的 Pod 关联的工作负载的 CPU 使用率指标:

kubectl top pod --selector=<selector> -n <namespace>

替换为工作负载的适当标签选择器,例如 app=,以聚合属于工作负载的所有 Pod 的 CPU 使用情况。

3. Kubelet 卷管理器不可用

为什么这很重要

kubelet 卷管理器故障可能会影响 pod 存储,从而可能导致数据丢失。不可用的卷管理器可能会阻止挂载 Pod 卷,从而影响依赖于持久存储的应用程序。

行动

调查 kubelet 服务和底层存储基础设施是否存在问题,并在必要时重新启动受影响的组件。

运行以下命令以检查 kubelet 服务的状态:

kubectl get pods -n kube-system | grep kubelet

检查 kubelet pod 的日志,以识别与卷管理器相关的任何错误或警告:

kubectl logs <kubelet_pod_name> -n kube-system

检查存储卷和网络连接的状态:

kubectl get pv,pvc -n <namespace>

确保存储卷已正确连接并由 kubelet 服务访问。

如有必要,请重新启动 kubelet 服务和任何相关组件。此命令强制 Kubernetes 重新创建 kubelet pod,希望能解决卷管理器的任何问题。

kubectl delete pod <kubelet_pod_name> -n kube-system

4. Kubernetes API 服务器错误

为什么这很重要

监视来自 Kubernetes API 服务器的客户端错误 (4XX) 和服务器错误 (5XX),这可能表示通信问题或内部服务器问题。

行动

检查网络连接和 API 服务器日志,以识别并解决根本问题。

验证 Kubernetes API 服务器的状态:

kubectl get pods -n kube-system | grep kube-apiserver

检查日志中是否存在与 API 服务器相关的错误或警告:

kubectl logs <kube-apiserver_pod_name> -n kube-system

检查与 API 服务器的网络连接:

kubectl cluster-info

5. Node Under Pressure

为什么这很重要

当 Kubernetes 节点遇到资源压力时发出警报,这可能会影响 Pod 调度和性能。

行动

监视 Kubernetes 节点上的资源,以确定承受压力的部分:

kubectl describe node <node_name>

查找可能表明资源压力过高的 CPU、内存或磁盘使用率。

查看节点上运行的工作负载,以识别资源密集的应用程序或容器:

kubectl get pods --all-namespaces -o wide

如果资源压力持续存在,请考虑扩展 CPU、内存或存储等资源:

kubectl scale node <node_name> --cpu=<new_cpu_capacity> --memory=<new_memory_capacity>

根据工作负载要求和可用节点容量调整资源限制。

将工作负载分布在多个节点上,以缓解资源压力:

kubectl drain <node_name> --ignore-daemonsets

6. 异常节点 CPU/内存 容量

为什么这很重要

检测 Kubernetes 节点何时使用比平时更多的 CPU 或内存,这可能意味着它们耗尽了资源或无法有效工作。

行动

检查资源的使用方式随时间推移,并在必要时更改节点容量或工作负载的分配方式。

监控 Kubernetes 节点上的 CPU 和内存使用情况:

kubectl top nodes

查看一段时间内的资源使用趋势,以识别 CPU 和内存使用率的异常或峰值。

如果节点持续超出 CPU 或内存限制,请考虑纵向扩展节点容量:

kubectl scale node <node_name> --cpu=<new_cpu_capacity> --memory=<new_memory_capacity>

替换为受影响节点的名称、 所需的 CPU 容量和所需的内存容量。

7. 缺少 Deployments/StatefulSet 的 Pod 副本

为什么这很重要

当由 Deployments 或 StatefulSet 控制的 Pod 丢失时发出通知 ,指示部署失败或 Pod 被驱逐。当缺少 Pod 时,这意味着应用程序的基本组件未按预期运行,这可能导致停机、性能不佳和数据丢失。例如,如果您将集群配置为具有 Pod 的 2 个副本,并且缺少其中一个副本,则您实际上正在运行 Pod 的单个实例,并且具有 SPOF(single point of failure 单点故障)并存在容错问题。

行动

检查 Deployment/Statefulset 配置和集群事件,以诊断和解决部署问题。

检查受影响的 Deployment 或 StatefulSet 的配置:

kubectl describe deployment <deployment_name> -n <namespace>

或:

kubectl describe statefulset <statefulset_name> -n <namespace>

查看所需的副本计数和当前副本计数,以确定是否存在任何差异。

查看集群事件,以识别与丢失的 Pod 副本相关的任何事件:

kubectl get events -n <namespace>

查找指示 Pod 逐出或部署失败的事件。

8. Pod 状态问题

为什么这很重要

检查 Pod 状态对于发现应用程序错误、资源不足或调度问题等问题非常重要。例如,如果 Pod 停滞在“等待”状态,则可能表明由于缺少资源或配置问题而无法启动。

行动

分析 Pod 日志、事件和配置,以排查和解决影响 Pod 稳定性和性能的根本问题。

查看 Pod 的日志以识别潜在的错误或问题:

kubectl logs <pod_name> -n <namespace>

检查 Pod 事件以了解影响 Pod 状态的最近更改或事件:

kubectl describe pod <pod_name> -n <namespace>

检查容器的配置以验证设置和资源分配:

kubectl describe pod <pod_name> -n <namespace>

9. Pod 重启和失败场景

为什么这很重要

频繁的 Pod 重启、容器崩溃、镜像拉取失败或内存不足 (OOM) 错误可能会影响应用程序的可靠性和用户体验,因此有效的 Kubernetes Pod 监控至关重要。想象一下,一个关键的微服务反复遇到内存不足错误。这可能会导致停机时间延长,从而可能导致收入损失和客户不满。没有人想要那样。

行动

如果 Pod 因为内存不足而不断重启,请查看其日志以了解原因:

kubectl logs <pod_name> -n <namespace>

查找 Pod 重启或失败的模式,例如内存不足错误、容器崩溃或镜像拉取失败。

如果 Pod 由于资源限制而重新启动,请考虑增加其资源限制:

kubectl edit pod <pod_name> -n <namespace>

10. ETCD leader 变化频繁或无 leader

为什么这很重要

监控 ETCD 集群的运行状况,在频繁更换领导者或缺少领导者时发出警报,这可能会影响集群的一致性和弹性。频繁更换领导者或缺少领导者表明集群通信或稳定性可能存在问题。就像在恋爱关系中一样,Kubernetes 集群中的良好沟通是其幸福的关键。😉

行动

调查 ETCD 集群运行状况、网络连接和磁盘性能,以确保正常运行和稳定性。

检查 ETCD 集群的健康状态并确定当前领导者:

etcdctl endpoint health --endpoints=<etcd_endpoints>

其中 <etcd_endpoints> 替换为你的 ETCD 集群的端点。

监控 ETCD 集群事件,了解领导者的频繁变更:

etcdctl watch --prefix / --rev=<current_revision> --endpoints=<etcd_endpoints>

验证 ETCD 节点之间的网络连通性,并检查 ETCD 节点上的磁盘性能,以防止 I/O 相关问题。

本文是 Flashcat 小伙伴翻译整理,Flashcat 是一家监控/可观测性创业公司,联系 Flashcat 做产品技术交流:https://flashcat.cloud/contact/。

posted @ 2024-08-29 18:02  技术颜良  阅读(26)  评论(0编辑  收藏  举报