摘要:
系统环境:rockylinux8.10 zabbix版本:zabbix6.30 nginx版本nginx/1.26.1 php版本PHP 7.2.24 mysql版本8.0 zabbix-server安装 rpm -Uvh https://repo.zabbix.com/zabbix/6.0/rhe 阅读全文
摘要:
系统基础优化 #所有服务器完成先基础优化配置 #部署基础常用命令 apt install iproute2 ntpdate tcpdump telnet traceroute nfs-kernel-server nfs-common lrzsz tree openssl libssl-dev lib 阅读全文
摘要:
底层网络沙箱容器pause无法下载报错 #如出现报错,是因为底层沙箱容器pause无法下载导致出现的问题 Events: Type Reason Age From Message Warning FailedCreatePodSandBox 2m51s kubelet Failed to creat 阅读全文
摘要:
全局配置 user nginx nginx; #启动Nginx工作进程的用户和组worker_processes [number | auto]; #启动Nginx工作进程的数量,一般设为和CPU核心数相同,auto自动根据cpu的核数生成对应的worker工作进程worker_cpu_affini 阅读全文
摘要:
1.集群升级版本和方案说明 #集群版本升级说明 小版本升级:1.21升级到1.21.5,小版本的升级是稳定的升级,是属于稳定更新,一般是修复此版本的某些bug 大版本升级:1.21升级到1.26(1.24),大版本更新可能会出现api的变化,其他插件的变化,做大版本升级需要提前把所有在生产环境运行的 阅读全文
摘要:
#集群扩容规划 #新增master节点和node节点如下 k8s-master3-etcd3-haproxy3 192.168.10.113 k8s-node3 192.168.10.116 #在k8s-harbor-deploy:192.168.10.110执行添加 1.新增master节点#查看 阅读全文
摘要:
系统版本 root@harbor:~# cat /etc/issue Ubuntu 20.04.2 LTS \n \l IP分配和集群机器配置: 192.168.10.110 k8s-deploy-harbor 2c2g 192.168.10.111 k8s-master1-etcd1-haprox 阅读全文
摘要:
镜像在本地可以正常启动,放到阿里云之后无法启动,只在容器启动的一瞬间 状态是oomkilled的然后无限重启容器,oomkilled状态只维持一会姑没有截图 阿里云edas配置使用cpu和内存的资源,在开发更新代码之前项目一直稳定正常运行 #启动脚本 [root@deploy-nb-63 nuxt_ 阅读全文
摘要:
线上的pod遭到无线的驱逐 fxxx-xxxx-deploy-86684b76ff-2vkdx 0/1 Evicted 0 30m <none> 10.10.10.10 <none> <none> fxxx-xxxx-deploy-86684b76ff-5j6fd 0/1 Evicted 0 30m 阅读全文
摘要:
创建pod一直处于创建状态 pod一直处于ContainerCreating状态 查看event事件无任何报错 查看pod的日志 删除pod也无法删除 Prometheus的pod已经处于OOMKilled的状态,部分pod处于Terminating的状态无法删除掉 查看Prometheus的pod 阅读全文
摘要:
查询报错远程调用接口异常,F12查看网络和标投和预览到是mgr的接口此错误#根据报错提示:Error in execution; nested excepti on is io.lettuce.core.RedisCommandExecutionException: MISCONF Errors w 阅读全文
摘要:
#生产pod创建为pending状态 [root@redis ~]# kubectl get pod -n cms-v2NAME READY STATUS RESTARTS AGEbase-auth-deploy-58c87b544-m2sc8 1/1 Running 0 65dcms-admin- 阅读全文
摘要:
系统基础优化 #系统版本:Ubuntu22.04 #docker版本:20.10 #kubeadm版本:1.27.2 root@k8s-master1:~# cat /etc/sysctl.conf ################################################## 阅读全文
摘要:
#记录一次生产报The node had condition: [DiskPressure]造成pod无限重启的监控不停的报警 #进入k8s的管理机检查发现msg的pod重启重建pod多次 [root@VM_248_6_centos ~]# kubectl get pod -n cms-v2-pro 阅读全文
摘要:
查看inode的情况 [root@ www]# df -hi Filesystem Inodes IUsed IFree IUse% Mounted on /dev/vda1 2.5M 93K 2.5M 4% / tmpfs 984K 2 984K 1% /dev/shm /dev/vdb1 5.0 阅读全文