摘要:
可以获取pod下面的容器的restart count参数,传入容器变量,容器里写个脚本来读值判断 写个 controller ,监听 restartcount 最后实操 删除 haidene命名空间中重启超过100的pod $ cat /opt/tools/pod_auto_delete.sh #! 阅读全文
摘要:
背景 发现3主集群的k8s,其中有一台负载特别高,top看的话也没有发现使用特别高的进程,最后打算在使用低峰期重启这台故障节点,(因为是3主高可用,挂掉一台也不影响集群使用) 问题 重启服务器后发现负载确实降低,但是发现etcd起不来了,导致 apiserver也没起来,kubelet正常 看了下e 阅读全文
摘要:
prometheus blackbox_exporter 黑盒监控 运行容器 docker run --rm -d -p 9115:9115 --name blackbox_exporter prom/blackbox-exporter:master 进行访问 gaoxin.kubeasy.com 阅读全文
摘要:
服务器开机后报错 DIMM Error: System Halt.Please Check CHA_0! 表示内存有问题,可将此 CHA_0 插槽的内存和其他内存条互换重插,来判断是否是内存条问题还是插槽问题。 阅读全文
摘要:
下载系统已经安装的rpm包 下载系统已经安装的rpm包 yum -y install yum-utils #安装yum下载工具 yumdownloader mysql #用yum下载到当前目录 实例: 查询mysql安装包 [root@localhost ~]# rpm -qa | grep mys 阅读全文
摘要:
ceph区分hdd和ssd存储 1.确定磁盘已经加进集群,CLASS 类型ceph 会自动识别出来 最少两种磁盘类型3块,不然创建pool默认副本为3,磁盘数少于3,会写入pool异常,也可以手动修改pool副本数为1 [root@node3 ~]# ceph osd tree ID CLASS W 阅读全文
摘要:
个人浅浅了解 大佬们可指正 ceph容量问题 问:当我们存储一个10g的文件时ceph实际会用掉多少呢 简化存储流程:file --> pool > image 答:当存储一个10g文件时,会先看你pool设置的副本数,如果10g,副本数为3的话大概会使用掉整个集群的30G+的这样一个情况 # 查看 阅读全文
摘要:
卸载ceph #卸载软件包 ceph-deploy purge dx-lt-yd-hebei-xxxx ceph-deploy purge dx-lt-yd-hebei-xxxx #删除配置文件 ceph-deploy purgedata dx-lt-yd-hebei-xxxx ceph-deplo 阅读全文
摘要:
使用Prometheus监控nomad指标 本教程介绍如何配置普罗米修斯与Nomad群集和普罗米修斯Alertmanager集成。虽然本教程介绍了启用遥测和警报的基础知识,但Nomad操作员可以通过定制仪表盘和集成不同的警报接收器来进行更深入的研究。 想象一个场景,其中一个Nomad操作员需要部署P 阅读全文
摘要:
# https://github.com/hashicorp/nomad-pack-community-registry/tree/main/packs/nomad_ingress_nginx job "nomad_ingress_nginx" { type = "system" region = 阅读全文