K8S部署
一、Kubeadm部署k8s单master集群
1、配置hosts
cat >> /etc/hosts << EOF 192.168.140.129 master 192.168.140.130 node1 192.168.140.131 node2 185.199.109.133 raw.githubusercontent.com EOF
2、关闭交换分区(swap)
[root@master ~]# swapoff -a # 临时关闭
[root@master ~]# sed -ri 's/.*swap.*/#&/' /etc/fstab # 永久关闭,需要重启才生效
3、修改内核参数
# 加载 br_netfilter 模块
[root@master ~]# modprobe br_netfilter
# 验证模块是否加载成功:
[root@master ~]# lsmod |grep br_netfilter
# 修改内核参数
cat > /etc/sysctl.d/k8s.conf <<EOF net.bridge.bridge-nf-call-ip6tables = 1 net.bridge.bridge-nf-call-iptables = 1 net.ipv4.ip_forward = 1 EOF
# 使修改的内核参数生效
[root@master ~]# sysctl -p /etc/sysctl.d/k8s.conf
4、安装iptables(可选)
[root@master ~]# yum install iptables-services -y
#禁用 iptables
[root@master ~]# service iptables stop && systemctl disable iptables
#清空防火墙规则
[root@master ~]# iptables -F
5、安装和配置docker
[root@master ~]# wget https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo -O /etc/yum.repos.d/docker-ce.repo
[root@master ~]# yum -y install docker-ce-20.10.9-3.el7
[root@master ~]# systemctl enable --now docker && systemctl status docker
# 指定镜像仓库,并修改docker文件驱动为systemd,默认为cgroupfs,kubelet默认使用systemd,两者必须一致才可以
cat > /etc/docker/daemon.json << EOF { "registry-mirrors": ["https://b9pmyelo.mirror.aliyuncs.com","https://rsbud4vc.mirror.aliyuncs.com","https://registry.docker-cn.com","https://docker.mirrors.ustc.edu.cn","https://dockerhub.azk8s.cn","http://hub-mirror.c.163.com","http://qtid6917.mirror.aliyuncs.com", "https://rncxm540.mirror.aliyuncs.com"], "exec-opts": ["native.cgroupdriver=systemd"] } EOF
[root@master ~]# systemctl daemon-reload && systemctl restart docker && systemctl status docker
6、配置k8s yum源
cat > /etc/yum.repos.d/kubernetes.repo << EOF [kubernetes] name=Kubernetes baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64 enabled=1 gpgcheck=0 repo_gpgcheck=0 gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg https://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg EOF
7、安装k8s组件(master,node都要装)
[root@master ~]# yum install -y kubelet-1.23.3 kubeadm-1.23.3 kubectl-1.23.3
启动kubelet服务
[root@master ~]# systemctl enable --now kubelet
以上步骤所有节点都需要执行
8、在master上执行初始化
kubeadm init \ --apiserver-advertise-address=[master_IP] \ --image-repository registry.aliyuncs.com/google_containers \ --kubernetes-version v1.23.3 \ --service-cidr=10.96.0.0/12 \ --pod-network-cidr=10.244.0.0/16
9、node节点执行kubectl get nodes报错:
[root@node ~]# kubectl get nodes
The connection to the server localhost:8080 was refused - did you specify the right host or port?
原因:
kubectl命令需要使用kubernetes-admin来运行,需要admin.conf文件(conf文件是通过“ kubeadmin init”命令在主节点/etc/kubernetes 中创建),但是从节点没有conf文件,也没有设置 KUBECONFIG =/root/admin.conf环境变量,所以需要复制conf文件到从节点,并设置环境变量就OK了
解决方法:
[root@node ~]# scp root@master:/etc/kubernetes/admin.conf /etc/kubernetes/
[root@node ~]# mkdir -p $HOME/.kube
[root@node ~]# cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
[root@node ~]# chown $(id -u):$(id -g) $HOME/.kube/config
[root@node ~]# export KUBECONFIG=/etc/kubernetes/admin.conf
10、配置NetworkManager
[root@master ~]# cat > /etc/NetworkManager/conf.d/calico.conf <<EOF [keyfile] unmanaged-devices=interface-name:cali*;interface-name:tunl*;interface-name:vxlan.calico;interface-name:wireguard.cali EOF
11、安装calico组件
[root@master ~]# wget --no-check-certificate https://docs.projectcalico.org/manifests/calico.yaml
[root@master ~]# wget --no-check-certificate https://docs.projectcalico.org/v3.23/manifests/calico.yaml
[root@master ~]# sed -i 's#docker.io/##g' calico.yaml
[root@master ~]# cat calico.yaml |grep 'image:'
[root@master ~]# kubectl apply -f calico.yaml
12、calico官方安装方法
# 安装tigera-operator
kubectl create -f https://raw.githubusercontent.com/projectcalico/calico/v3.26.1/manifests/tigera-operator.yaml
# 安装calico
kubectl create -f https://raw.githubusercontent.com/projectcalico/calico/v3.26.1/manifests/custom-resources.yaml
注意:安全完calico网络组件后,节点状态才会由NotReady变为Ready
13、安装rancher dashboard
docker run --privileged -d --restart=unless-stopped -p 80:80 -p 443:443 rancher/rancher
查看join命令在master上执行
kubeadm token create --print-join-command
二、Sealos方式部署K8S
1、下载并解压sealos
tar zxvf sealos_4.1.3_linux_amd64.tar.gz
cp sealos /usr/bin/
2、导入镜像,只在节点master1上导入即可
sealos load -i /app/k8s-1.21/k8s-1.21.0.tar
sealos load -i /app/k8s-1.21/calico-3.22.1.tar
[root@master1 ~]# sealos images REPOSITORY TAG IMAGE ID CREATED SIZE docker.io/labring/kubernetes v1.21.0 1612b032635d 17 months ago 634 MB docker.io/labring/calico v3.22.1 29516dc98b4b 20 months ago 546 MB
sealos rmi -f [IMAGE ID] # 删除镜像
3、部署k8s集群
方式一:
# 生成集群部署文件 sealos gen labring/kubernetes:v1.21.0 labring/calico:v3.22.1 \ --masters x.x.x.x,x.x.x.x \ --nodes x.x.x.x,x.x.x.x \ --passwd 'password' > Clusterfile # 修改Clusterfile,在文件的最后加入如下内容: --- apiVersion: kubeadm.k8s.io/v1beta2 kind: ClusterConfiguration networking: podSubnet: 172.16.0.0/16 --- apiVersion: apps.sealos.io/v1beta1 kind: Config metadata: name: calico spec: path: manifests/calico.yaml data: | apiVersion: operator.tigera.io/v1 kind: Installation metadata: name: default spec: # Configures Calico networking. calicoNetwork: # Note: The ipPools section cannot be modified post-install. ipPools: - blockSize: 26 # Note: Must be the same as podCIDR cidr: 172.16.0.0/16 encapsulation: IPIP natOutgoing: Enabled nodeSelector: all() nodeAddressAutodetectionV4: interface: "eth1" # 开始部署集群 sealos apply -f /root/Clusterfile
方式二:
sealos run labring/kubernetes:v1.21.0 labring/calico:v3.22.1 \ --masters x.x.x.x,x.x.x.x \ --nodes x.x.x.x,x.x.x.x \ -p 'password'
4、查看node节点状态,Ready为正常
kubectl get nodes -o wide
5、去除节点的污点,否则pod不调度到有污点标记的节点
kubectl describe node NODE_NAME | grep Taint # 查看节点是否有污点 kubectl taint node NODE_NAME node-role.kubernetes.io/master:NoSchedule # 在节点上增加污点 kubectl taint node NODE_NAME node-role.kubernetes.io/master:NoSchedule- # 去掉节点污点 kubectl taint node master1 node-role.kubernetes.io/master:NoSchedule- kubectl taint node node1 node-role.kubernetes.io/master:NoSchedule-
6、重启coredns
kubectl rollout restart deploy coredns -n kube-system
7、修改internal-ip,在KUBELET_EXTRA_ARGS参数的最后加上node节点eth1的IP地址
vim /var/lib/kubelet/kubelet-flags.env
KUBELET_EXTRA_ARGS="--pod-infra-container-image=k8s.gcr.io/pause:3.4.1 --container-runtime=remote --runtime-request-timeout=15m --container-runtime-endpoint=unix:///run/containerd/containerd.sock --image-service-endpoint=unix:///var/run/image-cri-shim.sock --node-ip=x.x.x.x"
#重启kubelet服务
systemctl daemon-reload
systemctl restart kubelet
#确认k8s集群节点的internal-ip是否已经修改
kubectl get nodes -o wide
8、sealos常用命令
添加节点 sealos add --masters x.x.x.x --nodes x.x.x.x sealos add --masters x.x.x.x-x.x.x.x --nodes x.x.x.x-x.x.x.x 删除节点 sealos delete --nodes x.x.x.x sealos delete --masters x.x.x.x --nodes x.x.x.x 清理集群 sealos reset --help sealos reset sealos reset --masters x.x.x.x,x.x.x.x,x.x.x.x
9、sealos常见问题处理
# sealos部署k8s集群卡下面的状态,原因为没有etcd pod 10.10.10.1:22: [etcd] Waiting for the new etcd member to join the cluster. This can take up to 40s 10.10.10.1:22: [kubelet-check] Initial timeout of 40s passed. # 解决方法,编辑对应节点上的etcd.yaml文件然后保存退出: vim /etc/kubernetes/manifests/etcd.yaml
三、kubeadm配置多master k8s集群
1、配置hosts
cat >> /etc/hosts << EOF 192.168.140.130 master1 192.168.140.131 master2 192.168.140.132 node1 185.199.109.133 raw.githubusercontent.com EOF
2、关闭交换分区和修改内核参数(略)
3、开启ipvs功能,所有节点都要开启
yum -y install ipvsadm conntrack ntpdate cat >/etc/sysconfig/modules/ipvs.modules<<\EOF #!/bin/bash ipvs_modules="ip_vs ip_vs_lc ip_vs_wlc ip_vs_rr ip_vs_wrr ip_vs_lblc ip_vs_lblcr ip_vs_dh ip_vs_sh ip_vs_nq ip_vs_sed ip_vs_ftp nf_conntrack" for kernel_module in ${ipvs_modules}; do /sbin/modinfo -F filename ${kernel_module} > /dev/null 2>&1 if [ 0 -eq 0 ]; then /sbin/modprobe ${kernel_module} fi done EOF chmod 755 /etc/sysconfig/modules/ipvs.modules && bash /etc/sysconfig/modules/ipvs.modules && lsmod | grep ip_vs
4、安装和配置nginx、keepalived,注意安装完keepalived需测试虚拟出来的VIP能否正常访问
[root@master1 ~]# yum -y install nginx nginx-mod-stream keepalived
[root@master1 ~]# cat /etc/nginx/nginx.conf
stream { log_format main '$remote_addr $upstream_addr - [$time_local] $status $upstream_bytes_sent'; access_log /var/log/nginx/k8s-access.log main; upstream k8s-apiserver { server 192.168.140.130:6443 weight=5 max_fails=3 fail_timeout=30s; server 192.168.140.131:6443 weight=5 max_fails=3 fail_timeout=30s; } server { listen 16443; #由于nginx与master节点复用,这个监听端口不能是6443,否则会冲突 proxy_pass k8s-apiserver; } }
[root@master1 ~]# cat /etc/keepalived/keepalived.conf
! Configuration File for keepalived global_defs { router_id LVS_DEVEL } vrrp_instance VI_1 { state MASTER interface eth0 virtual_router_id 51 priority 105 advert_int 1 authentication { auth_type PASS auth_pass 1111 } virtual_ipaddress { 192.168.140.133 } }
[root@master1 ~]# systemctl enable --now nginx.service keepalived.service
说明:
master2上的nginx和keepalived配置同master1
5、安装docker服务和k8s组件(略)
6、创建kubeadm-config.yaml文件
[root@master1 ~]# cat kubeadm-config.yaml
apiVersion: kubeadm.k8s.io/v1beta2 kind: ClusterConfiguration kubernetesVersion: v1.23.3 # 版本号必需要和安装kubelet,kubeadm,kubectl组件时指定的版本号一致 controlPlaneEndpoint: 192.168.140.133:16443 # VIP地址和端口 imageRepository: registry.aliyuncs.com/google_containers apiServer: certSANs: - 192.168.140.130 - 192.168.140.131 - 192.168.140.132 - 192.168.140.133 networking: podSubnet: 10.244.0.0/16 serviceSubnet: 10.10.0.0/16 --- apiVersion: kubeproxy.config.k8s.io/v1alpha1 kind: KubeProxyConfiguration mode: ipvs
7、开始初始化集群
[root@master1 ~]# kubeadm init --config /root/kubeadm-config.yaml --ignore-preflight-errors=SystemVerification
三、K8S常用yaml配置文件
# yaml格式的pod文件完整内容: apiVersion: v1 #必选,版本号,例如v1 kind: Pod #必选,指定创建资源的角色/类型 metadata: #必选,资源的元数据/属性 name: string #必选,资源的名字,在同一个namespace中必须唯一 namespace: string #必选,Pod所属的命名空间 labels: #自定义标签,使这个标签在service网络中备案,以便被获知 - name: string #自定义标签名字 annotations: #设置自定义注解列表 - name: string #设置自定义注解名字 spec: #必选,设置该资源的详细定义 nodeName: k8s-node01 # 指定节点名称,该参数会将pod部署到指定的node节点 containers: #必选,Pod中容器列表 - name: string #必选,容器名称 image: string #必选,容器的镜像名称 imagePullPolicy: [Always | Never | IfNotPresent] #获取镜像的策略 Alawys表示下载镜像 IfnotPresent表示优先使用本地镜像,否则下载镜像,Nerver表示仅使用本地镜像 command: [string] #容器的启动命令列表,如不指定,使用打包时使用的启动命令 args: [string] #容器的启动命令参数列表 workingDir: string #容器的工作目录 volumeMounts: #挂载到容器内部的存储卷配置 - name: string #引用pod定义的共享存储卷的名称,需用volumes[]部分定义的的卷名 mountPath: string #存储卷在容器内mount的绝对路径,应少于512字符 readOnly: boolean #是否为只读模式 ports: #需要暴露的端口库号列表 - name: string #端口号名称 containerPort: int #容器需要监听的端口号 hostPort: int #容器所在主机需要监听的端口号,默认与Container相同 protocol: string #端口协议,支持TCP和UDP,默认TCP env: #容器运行前需设置的环境变量列表 - name: string #环境变量名称 value: string #环境变量的值 resources: #资源限制和请求的设置 limits: #资源限制的设置 cpu: string #Cpu的限制,单位为core数,将用于docker run --cpu-shares参数 memory: string #内存限制,单位可以为Mib/Gib,将用于docker run --memory参数 requests: #资源请求的设置 cpu: string #Cpu请求,容器启动的初始可用数量 memory: string #内存清楚,容器启动的初始可用数量 livenessProbe: #对Pod内个容器健康检查的设置,当探测无响应几次后将自动重启该容器,检查方法有exec、httpGet和tcpSocket,对一个容器只需设置其中一种方法即可 exec: #对Pod容器内检查方式设置为exec方式 command: [string] #exec方式需要制定的命令或脚本 httpGet: #对Pod内个容器健康检查方法设置为HttpGet,需要制定Path、port path: string port: number host: string scheme: string HttpHeaders: - name: string value: string tcpSocket: #对Pod内个容器健康检查方式设置为tcpSocket方式 port: number initialDelaySeconds: 0 #容器启动完成后首次探测的时间,单位为秒 timeoutSeconds: 0 #对容器健康检查探测等待响应的超时时间,单位秒,默认1秒 periodSeconds: 0 #对容器监控检查的定期探测时间设置,单位秒,默认10秒一次 successThreshold: 0 failureThreshold: 0 securityContext: privileged:false restartPolicy: [Always | Never | OnFailure]#Pod的重启策略,Always表示一旦不管以何种方式终止运行,kubelet都将重启,OnFailure表示只有Pod以非0退出码退出才重启,Nerver表示不再重启该Pod nodeSelector: obeject #设置NodeSelector表示将该Pod调度到包含这个label的node上,以key:value的格式指定 imagePullSecrets: #Pull镜像时使用的secret名称,以key:secretkey格式指定 - name: string hostNetwork:false #是否使用主机网络模式,默认为false,如果设置为true,表示使用宿主机网络 volumes: #在该pod上定义共享存储卷列表 - name: string #共享存储卷名称 (volumes类型有很多种) emptyDir: {} #类型为emtyDir的存储卷,与Pod同生命周期的一个临时目录。为空值 hostPath: string #类型为hostPath的存储卷,表示挂载Pod所在宿主机的目录 path: string #Pod所在宿主机的目录,将被用于同期中mount的目录 secret: #类型为secret的存储卷,挂载集群与定义的secre对象到容器内部 scretname: string items: - key: string path: string configMap: #类型为configMap的存储卷,挂载预定义的configMap对象到容器内部 name: string items: - key: string path: string
# yaml格式的Deployment文件完整内容: apiVersion: extensions/v1beta1 kind: Deployment metadata: ----------------------------------------#元数据 annotations: -------------------------------------#注释信息 deployment.kubernetes.io/revision: '1' k8s.kuboard.cn/ingress: 'false' k8s.kuboard.cn/service: NodePort k8s.kuboard.cn/workload: nextcloud labels:-------------------------------------------#标签信息 k8s.kuboard.cn/layer: '' k8s.kuboard.cn/name: nextcloud name: nextcloud-----------------------------------#名称 namespace: nextcloud------------------------------#命名空间 spec:-----------------------------------------------#定义容器模板,该模板可以包含多个容器 replicas: 3---------------------------------------#副本数量 selector:-----------------------------------------#标签选择器 matchLabels: k8s.kuboard.cn/layer: '' k8s.kuboard.cn/name: nextcloud strategy:-----------------------------------------#滚动升级策略 type: RollingUpdate-----------------------------#类型 rollingUpdate:----------------------------------#由于replicas为3,则整个升级,pod个数在2-4个之间 maxSurge: 25%---------------------------------#滚动升级时会先启动25%pod maxUnavailable: 25%---------------------------#滚动升级时允许的最大Unavailable的pod个数 template: #镜像模板 metadata: ------------------------------------#元数据 labels:---------------------------------------#标签 k8s.kuboard.cn/layer: '' k8s.kuboard.cn/name: nextcloud spec: ------------------------------------------#定义容器模板,该模板可以包含多个容器 containers: ----------------------------------#容器信息 - name: nextcloud --------------------------#容器名称 image: '172.16.20.100/library/nextcloud:yan' #镜像名称 imagePullPolicy: Always ------------------#镜像下载策略 ports: - name: http containerPort: 80 protocol: TCP env resources: -------------------------------#CPU内存限制 limits: --------------------------------#限制cpu内存 cpu: 200m memory: 200m requests: ------------------------------#请求cpu内存 cpu: 100m memory: 100m securityContext: -------------------------#安全设定 privileged: true -----------------------#开启享有特权 volumeMounts: ----------------------------#挂载volumes中定义的磁盘 - name: html ---------------------------#挂载容器1 mountPath: /var/www/html - name: session ------------------------#挂载容器1 mountPath: /var/lib/php/session volumes: ------------------------------------#在该pod上定义共享存储卷列表 - name: html -------------------------------#共享存储卷名称 (volumes类型有很多种) persistentVolumeClaim: -------------------#volumes类型为pvc claimName: html -----------------------#关联pvc名称 - name: session persistentVolumeClaim: claimName: session restartPolicy: Always ------------------------#Pod的重启策略 #Always表示一旦不管以何种方式终止运行,kubelet都将重启, #OnFailure表示只有Pod以非0退出码退出才重启, #Nerver表示不再重启该Pod schedulerName: default-scheduler -------------#指定pod调度到节点
# yaml格式的Service文件完整内容: apiVersion: v1 kind: Service metadata: ---------------------------------#元数据 annotations: -----------------------------#注释信息 k8s.kuboard.cn/workload: nextcloud labels: ----------------------------------#标签信息 k8s.kuboard.cn/layer: '' k8s.kuboard.cn/name: nextcloud name: nextcloud --------------------------#名称 namespace: nextcloud ---------------------#命名空间 spec: --------------------------------------#定义Service模板 clusterIP: 10.0.181.206 ------------------#指定svcip地址 不指定则随机 ================================================================================================= #NodePort类型:集群外网络 type: NodePort ---------------------------#类型为NodePort ports: - name: mnwwwp nodePort: 30001 ----------------------#当type = NodePort时,指定映射到物理机的端口号 port: 80 -----------------------------#服务监听的端口号 protocol: TCP ------------------------#端口协议,支持TCP和UDP,默认TCP targetPort: 80 -----------------------#需要转发到后端Pod的端口号 ================================================================================================== #ClusterIP类型: 集群内网络 type: ClusterIP --------------------------# ports: - name: mnwwwp port: 80 protocol: TCP targetPort: 80 - name: j5smwx port: 22 protocol: TCP targetPort: 22 selector: -------------------------------#label selector配置,将选择具有label标签的Pod作为管理 k8s.kuboard.cn/layer: '' k8s.kuboard.cn/name: nextcloud sessionAffinity: None --------------------#是否支持session
apiVersion: batch/v1beta1 kind: CronJob metadata: name: my-cronjob namespace: dev spec: schedule: "*/1 * * * *" # 表示每分钟执行一次作业 #successfulJobsHistoryLimit: 1 # 默认3 #failedJobsHistoryLimit: 1 # 默认1 #startingDeadlineSeconds: 60 # CronJob控制器将测量从预期创建作业到现在之间的时间。如果差异高于该限制,它将跳过此执行。 例如,如果设置为200,则它允许在实际计划后最多200秒内创建作业。 jobTemplate: spec: #activeDeadlineSeconds: 5 # 设置了Pod最大运行时间为5秒,如果超过这个时间就会被Kubernetes强制删除。 #ttlSecondsAfterFinished: 30 template: spec: #terminationGracePeriodSeconds: 0 #当需要关闭容器时,立即杀死容器而不等待默认的30秒优雅停机时长 containers: - name: my-cronjob image: 172.171.2.148:5000/busybox imagePullPolicy: Always - command: - sh - -c - date;sleep 10 restartPolicy: OnFailure # 在容器执行失败时重新启动容器 # CronJob资源属性 # 1、schedule # * * * * * command # 分 小时 日 月 周 要运行的命令 # 第1列分钟(0~59) # 第2列小时(0~23) # 第3列日(1~31) # 第4列月(1~12) # 第5列星期(0~7)(0和7表示星期天) # 第6列要运行的命令 # 2、successfulJobsHistoryLimit # 保留执行成功的历史记录次数,默认值是3。 # 假如设置为5,就会保留过去5次成功的执行记录 # 3、failedJobsHistoryLimit # 保留执行失败的历史记录次数,默认值是1。 # 假如设置为3,就会保留过去3次失败的执行记录 # 4、startingDeadlineSeconds # 它表示任务如果由于某种原因错过了调度时间,开始该任务的截止时间的秒数。 # 控制器将测量从预期创建作业到现在之间的时间。 # 如果差异高于该限制,它将跳过此执行。 # 例如,如果设置为60,则它允许在实际计划后最多60 秒内创建作业。 # 5、ttlSecondsAfterFinished # 假如jobTemplate添加了ttlSecondsAfterFinished,这个时候successfulJobsHistoryLimit和failedJobsHistoryLimit就会失效。 # 例如ttlSecondsAfterFinished设置成30,这样不管这次的job是成功还是失败,在30秒后会照样清除
四、K8S常用命令
# 自定义输出列,--no-headers不显示表头 kubectl get pod -A -o custom-columns="NameSpace:.metadata.namespace,Name:.metadata.name,Status:.status.phase,IP:.status.podIP,NodeName:.spec.nodeName" --no-headers kubectl get svc -l app=grafana -o custom-columns="NAME:.metadata.name,TYPE:.spec.type,CLUSTER-IP:.spec.clusterIP,PORT(S):.spec.ports[*].port" --no-headers # 重启deployments资源pod kubectl rollout restart deployment grafana # 强制删除pod kubectl delete pod -l app=grafana -n [namespace] --grace-period=0 --force # kubectl cp命令只支持从本地复制到Pod或从Pod复制到本地,不支持直接在两个Pod之间复制文件 kubectl cp <namespace>/<pod-name>:/var/logs/app.log /tmp/app.log # 进入pod kubectl -n [namespace] exec -it [podname] -- /bin/bash kubectl exec -it [podname] -- ping X.X.X.X kubectl exec -it mariadb -- mysql -u[username] -p[password] -D[database] -e 'SELECT * FROM userinfo;' # 查看正在运行的pod镜像版本(以下示例namespace为default) kubectl get pod -l app=grafana --no-headers | awk '{cmd="kubectl describe pod "$1" | grep 'Image:.*grafana'";cmd|getline var;print var}' kubectl get pod -l app=grafana --no-headers | awk '{cmd="kubectl describe pod "$1" | grep 'Image:.*grafana'";system(cmd)}' kubectl get pod -l app=grafana --no-headers | awk '{cmd="kubectl describe pod "$1" | grep 'Image:.*grafana'";print cmd | "/bin/bash"}' # 批量查看k8s组件版本 for i in coredns etcd apiserver controller-manager proxy;do kubectl get pod -n kube-system | grep $i | awk -v res=$i '{cmd="kubectl describe pod "$1" -n kube-system | grep 'Image:.*'"res;system(cmd)}';done # 获取所有的资源状态 kubectl get all -A # 获取nginx的deployment资源状态 kubectl get deployment nginx # 列出所有的deployments资源状态以及它们的标签 kubectl get deployment -A --show-labels # 获取所有cronjob任务状态以及它们的标签 kubectl get cj/cronjobs -A --show-labels # 重启cronjob任务 kubectl delete cj/cronjobs [cronjob-name] -n [NAMESPACE] kubectl apply -f cronjob-name.yaml # 生成cronjob资源文件,--dry-run=client,不提交到后台,只生成yaml文件,一般用来验证yaml文件 kubectl create cronjob my-cronjob --image=busybox --schedule="*/1 * * * *" --dry-run=client -o yaml -- sh -c "date;sleep 10" > my-cronjob.yaml # 过滤状态不等于Running且app名称为iperf的pod kubectl get pod -A -o wide -l app=iperf --field-selector=status.phase!=Running
五、 强制删除Terminating的ns
# 方法一: kubectl delete ns ingress-nginx --force --grace-period=0 # 方法二: kubectl get ns ingress-nginx -o json > ingress-nginx.json # 删除文件中的"kubernetes"保存即可,修改前: "spec": { "finalizers": [ "kubernetes" ] }, # 修改后: "spec": { "finalizers": [ "" ] }, # 修改完执行以下命令 # kubectl replace --raw "/api/v1/namespaces/{namespaces}/finalize" -f ./ingress-nginx.json kubectl replace --raw "/api/v1/namespaces/ingress-nginx/finalize" -f ./ingress-nginx.json
六、在K8S集群上使用nsenter命令进入pod的网络名称空间
# docker命令查找容器pid # 查看Pod所在的宿主机 sudo kubectl get pod [PODNAME]-n [NAMESPACE] -o wide # 在Pod所在的宿主机上执行以下命令获取容器pid sudo kubectl get pod [PODNAME] -n [NAMESPACE] -o jsonpath='{.status.containerStatuses[*].containerID}' | cut -d'/' -f3 | xargs sudo docker inspect --format '{{ .State.Pid }}' # 使用nsenter命令进入容器网络名称空间 sudo nsenter -n -t [CONTAINER-PID] # crictl命令查找容器pid # 查看容器id(查看其它宿主机上pod的容器id需要登录到相应pod的宿主机) [root@K8S ~]# crictl ps --name grafana CONTAINER IMAGE CREATED STATE NAME ATTEMPT POD ID e5bdc1c0ee349 8d0b77430ee96 4 months ago Running grafana 0 305caef6e1d5c [root@K8S ~]# crictl ps --name grafana -o json | jq -r '.containers|.[].id[0:13]' e5bdc1c0ee349 # 登录到容器所在的宿主机上执行以下命令查找容器pid crictl inspect -o json [CONTAINER-ID] | jq '.info.pid' [root@K8S ~]# crictl inspect -o json e5bdc1c0ee349 | jq '.info.pid' 3777131 # 使用nsenter命令进入容器网络名称空间 nsenter -n -t [CONTAINER-PID] [root@K8S ~]# nsenter -n -t 3777131
七、kubectl tab补齐指令
# 安装bash-completion或zsh-completion yum install bash-completion zsh-completion # 临时添加(kubectl completion --help) source <(kubectl completion bash) # 写入~/.bashrc文件永久生效(只单个用户有效) echo "source <(kubectl completion bash)" >> ~/.bashrc # 加载配置文件立即生效 source ~/.bashrc # 所有用户都生效 kubectl completion bash | sudo tee /etc/bash_completion.d/kubectl > /dev/null kubectl completion bash > /usr/share/bash-completion/completions/kubectl
七、k8s排错逻辑图
参考链接:
https://asciinema.org/ # 终端录制,安装前需要安装epel源
https://zhuanlan.zhihu.com/p/163107995 # Kubernetes单master部署
https://zhuanlan.zhihu.com/p/639042196
https://www.cnblogs.com/shuiyao3/p/17290271.html
https://www.cnblogs.com/fengdejiyixx/p/16576021.html
https://sealos.io/docs/Intro
https://sealos.run/docs/Intro
https://github.com/wheatMr/sealos
https://github.com/labring/sealos
https://blog.csdn.net/xiaoliizi/article/details/126998976 # 使用sealos部署k8s集群
https://github.com/projectcalico/calico/releases # calico离线包下载,k8s下载release-v3.26.3.tgz包
https://docs.tigera.io/calico/latest/getting-started/kubernetes/quickstart # 官网calico安装方法
https://blog.csdn.net/ma_jiang/article/details/124962352 # K8S Calico网络插件介绍
https://github.com/KubeOperator/KubeOperator
https://icloudnative.io/posts/kubesphere/
https://www.kubesphere.io/zh/docs/v3.3/quick-start/all-in-one-on-linux/ #在linux上安装Kubernetes和KubeSphere
https://blog.csdn.net/qq_25775675/article/details/121671679 # Kubernetes调度器-固定节点
https://support.huaweicloud.com/function-cce/index.html # k8s介绍
https://www.cnblogs.com/zoujiaojiao/p/17021724.html # k8s中使用nsenter命令进入容器网络命名空间
https://www.cnblogs.com/cheyunhua/p/15922573.html # kubeadmin部署多master节点
https://www.cnblogs.com/yangmeichong/p/17124171.html # k8s1.25多master节点集群部署
https://www.cnblogs.com/wuqiuyin/p/17028935.html # k8s多master节点部署
https://kubernetes.io/zh-cn/docs/concepts/overview/working-with-objects/field-selectors/ # k8s字段选择器
https://www.yuque.com/wei.luo/network # k8s网络