随笔分类 - K8S
摘要:背景 近来可能公司会迁移服务器,先对 velero 工具做一个初步的认识 环境 K8S 版本: v1.24.1 velero 版本: v1.11.1 minio 版本:2023.12.14 ,部署在 K8S 集群外(192.168.1.226 服务器上) 官方备份工作流程图 更多详细信息,可参考:h
阅读全文
摘要:环境 IP 主机名 172.16.16.77 test1 172.16.16.78 test2 172.16.16.79 test3 ceph版本:quincy 主机系统:ubuntu 22.04 安装集成软件 3台机器上都要执行 vi /etc/hosts # 最后添加 172.16.16.77
阅读全文
摘要:在 master 节点上进行操作 [root@k8s-master-1 ~]# kubectl get nodes Unable to connect to the server: x509: certificate has expired or is not yet valid: current
阅读全文
摘要:背景 现有个需求需要在 K8S 中构建一个新的镜像,之前使用 docker 命令进行构建,后面 K8S 升级,容器运行时换成了 containerd,故查了一下网络,发现 kaniko 比较好用。所以测试记录一下~ 项目地址:https://github.com/GoogleContainerToo
阅读全文
摘要:本地环境情况 | 角色 | IP | 版本 | | | | | | k8s-master-1 | 172.16.16.108 | K8S v1.24.1, containerd://1.6.8 | | k8s-node-1 | 172.16.16.109 | K8S v1.24.1, contain
阅读全文
摘要:github 地址: https://github.com/influxtsdb/helm-charts/tree/master/charts/influxdb-cluster 前提条件 安装好 K8S, helm,git 配置好 K8S 存储 部署和注意事项 mkdir /data/yaml/de
阅读全文
摘要:github 地址 https://github.com/kubernetes-sigs/nfs-subdir-external-provisioner 把代码参考下载到本地,在 deploy 目录下可以看到下面文件 前提 首先部署了 nfs-server 我的环境 nfs-server ip 是
阅读全文
摘要:环境背景 | 主机名 | IP | 角色 | 版本 | 容器运行时 | | | | | | | | k8s-master-01 | 172.16.16.180 | Master1 | v1.24.1 | containerd 1.6.8 | | k8s-master-02 | 172.16.16.1
阅读全文
摘要:部署 zookeeper 集群 mkdir -p /data/yaml/kube-system/zookeeper cd /data/yaml/kube-system/zookeeper cat svc.yaml apiVersion: v1 kind: Service metadata: name
阅读全文
摘要:优化 filebeat 采集的日志 现实情况下,filebeat 采集过多无用的日志会造成 CPU,内存,带宽的浪费,尽量控制采集有用的日志 根据实际业务情况,这边控制采集 K8S 4个命名空间下的日志,其他命名空间的日志抛弃 cat cm.yaml apiVersion: v1 kind: Con
阅读全文
摘要:部署 logstash mkdir -p /data/yaml/k8s-logging/logstash cd /data/yaml/k8s-logging/logstash cat cm.yaml apiVersion: v1 kind: ConfigMap metadata: name: log
阅读全文
摘要:部署 filebeat mkdir -p /data/yaml/k8s-logging/filebeat cd /data/yaml/k8s-logging/filebeat cat rbac.yaml # Source: filebeat/templates/filebeat-service-ac
阅读全文
摘要:日志收集过程:filebeat(收集) → kafka(缓存) → logstash(处理) → elasticsearch(存储) → kibana(展示) 注意该集群的 Kakfa 无法在K8S集群外使用,若有需求可以参考 https://www.cnblogs.com/klvchen/p/15
阅读全文
摘要:查看 Pod 在 Node 节点上的资源分配情况(Request、Limits) kubectl describe node 查看节点的资源使用情况 kubectl top node 查看 Pod 资源使用情况 kubectl top pod
阅读全文
摘要:需求 开发需要在 K8S 集群上部署 mongodb 集群且需要使用 NodePort 把地址和端口公布出来访问。经检查 K8S 集群有一个节点上配有公网IP。这样一来外网也可以直接通过公网IP和端口连接上 mongodb 集群,十分不安全。 方案 方案一: 开启 firewalld,原来服务器没有
阅读全文
摘要:背景使用 EFK 收集 K8S 日志(K8S 容器运行时是 containerd) 安装 es 集群 # 创建目录 mkdir -p /data/yaml/kube-logging/{elasticsearch,filebeat,kibana} cd /data/yaml/kube-logging/
阅读全文
摘要:k8s-master 192.168.1.111 k8s-node1 192.168.1.113 k8s-node2 192.168.1.116 cat >> /etc/hosts << EOF 192.168.1.111 k8s-master 192.168.1.113 k8s-node1 192
阅读全文
摘要:因为 k8s.gcr.io 无法访问,所以使用阿里云的镜像源代替 # 查看 kubelet 配置 systemctl status -l kubelet cd /var/lib/kubelet/ cp kubeadm-flags.env kubeadm-flags.env.ori # 把 k8s.g
阅读全文
摘要:在工作时碰到一个场景,K8S中的容器需要访问外部的 es 服务和 kibana, 若把 es 和 kibana 的配置以固定IP的形式写入配置文件中,万一 es 和 kibana 搬迁,ip 地址变更那改起来会非常不灵活和容易遗漏。 这时我们可以使用 K8S 的 service。 访问 ES 外部的
阅读全文
摘要:# 下载,安装 wget https://get.helm.sh/helm-v3.4.2-linux-amd64.tar.gz tar -zxvf helm-v3.4.2-linux-amd64.tar.gz mv linux-amd64/helm /usr/local/bin/helm # 查看版
阅读全文