K8S部署

一、Kubeadm部署k8s单master集群
1、配置hosts

cat >> /etc/hosts << EOF
192.168.140.129 master
192.168.140.130 node1
192.168.140.131 node2
185.199.109.133 raw.githubusercontent.com
EOF

2、关闭交换分区(swap)
[root@master ~]# swapoff -a     # 临时关闭
[root@master ~]# sed -ri 's/.*swap.*/#&/' /etc/fstab      # 永久关闭,需要重启才生效

3、修改内核参数
# 加载 br_netfilter 模块
[root@master ~]# modprobe br_netfilter
# 验证模块是否加载成功:
[root@master ~]# lsmod |grep br_netfilter
# 修改内核参数

cat > /etc/sysctl.d/k8s.conf <<EOF
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
net.ipv4.ip_forward = 1
EOF

# 使修改的内核参数生效
[root@master ~]# sysctl -p /etc/sysctl.d/k8s.conf

4、安装iptables(可选)
[root@master ~]# yum install iptables-services -y
#禁用 iptables
[root@master ~]# service iptables stop && systemctl disable iptables
#清空防火墙规则
[root@master ~]# iptables -F

5、安装和配置docker
[root@master ~]# wget https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo -O /etc/yum.repos.d/docker-ce.repo
[root@master ~]# yum -y install docker-ce-20.10.9-3.el7
[root@master ~]# systemctl enable --now docker && systemctl status docker
# 指定镜像仓库,并修改docker文件驱动为systemd,默认为cgroupfs,kubelet默认使用systemd,两者必须一致才可以

cat > /etc/docker/daemon.json << EOF
{
    "registry-mirrors": ["https://b9pmyelo.mirror.aliyuncs.com","https://rsbud4vc.mirror.aliyuncs.com","https://registry.docker-cn.com","https://docker.mirrors.ustc.edu.cn","https://dockerhub.azk8s.cn","http://hub-mirror.c.163.com","http://qtid6917.mirror.aliyuncs.com", "https://rncxm540.mirror.aliyuncs.com"],
    "exec-opts": ["native.cgroupdriver=systemd"]
}
EOF

[root@master ~]# systemctl daemon-reload && systemctl restart docker && systemctl status docker

6、配置k8s yum源

cat > /etc/yum.repos.d/kubernetes.repo << EOF
[kubernetes]
name=Kubernetes
baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64
enabled=1
gpgcheck=0
repo_gpgcheck=0
gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg https://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
EOF

7、安装k8s组件(master,node都要装)
[root@master ~]# yum install -y kubelet-1.23.3 kubeadm-1.23.3 kubectl-1.23.3
启动kubelet服务
[root@master ~]# systemctl enable --now kubelet
以上步骤所有节点都需要执行

8、在master上执行初始化

kubeadm init \
--apiserver-advertise-address=[master_IP] \
--image-repository registry.aliyuncs.com/google_containers \
--kubernetes-version v1.23.3 \
--service-cidr=10.96.0.0/12 \
--pod-network-cidr=10.244.0.0/16

9、node节点执行kubectl get nodes报错:
[root@node ~]# kubectl get nodes
The connection to the server localhost:8080 was refused - did you specify the right host or port?
原因:
kubectl命令需要使用kubernetes-admin来运行,需要admin.conf文件(conf文件是通过“ kubeadmin init”命令在主节点/etc/kubernetes 中创建),但是从节点没有conf文件,也没有设置 KUBECONFIG =/root/admin.conf环境变量,所以需要复制conf文件到从节点,并设置环境变量就OK了
解决方法:
[root@node ~]# scp root@master:/etc/kubernetes/admin.conf /etc/kubernetes/
[root@node ~]# mkdir -p $HOME/.kube
[root@node ~]# cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
[root@node ~]# chown $(id -u):$(id -g) $HOME/.kube/config
[root@node ~]# export KUBECONFIG=/etc/kubernetes/admin.conf

10、配置NetworkManager

[root@master ~]# cat > /etc/NetworkManager/conf.d/calico.conf <<EOF
[keyfile]
unmanaged-devices=interface-name:cali*;interface-name:tunl*;interface-name:vxlan.calico;interface-name:wireguard.cali
EOF

11、安装calico组件
[root@master ~]# wget --no-check-certificate https://docs.projectcalico.org/manifests/calico.yaml
[root@master ~]# wget --no-check-certificate https://docs.projectcalico.org/v3.23/manifests/calico.yaml
[root@master ~]# sed -i 's#docker.io/##g' calico.yaml
[root@master ~]# cat calico.yaml |grep 'image:'
[root@master ~]# kubectl apply -f calico.yaml

12、calico官方安装方法
# 安装tigera-operator
kubectl create -f https://raw.githubusercontent.com/projectcalico/calico/v3.26.1/manifests/tigera-operator.yaml
# 安装calico
kubectl create -f https://raw.githubusercontent.com/projectcalico/calico/v3.26.1/manifests/custom-resources.yaml
注意:安全完calico网络组件后,节点状态才会由NotReady变为Ready

13、安装rancher dashboard
docker run --privileged -d --restart=unless-stopped -p 80:80 -p 443:443 rancher/rancher

查看join命令在master上执行
kubeadm token create --print-join-command

二、Sealos方式部署K8S
1、下载并解压sealos
tar zxvf sealos_4.1.3_linux_amd64.tar.gz
cp sealos /usr/bin/

2、导入镜像,只在节点master1上导入即可
sealos load -i /app/k8s-1.21/k8s-1.21.0.tar
sealos load -i /app/k8s-1.21/calico-3.22.1.tar

[root@master1 ~]# sealos images
REPOSITORY                     TAG       IMAGE ID       CREATED         SIZE
docker.io/labring/kubernetes   v1.21.0   1612b032635d   17 months ago   634 MB
docker.io/labring/calico       v3.22.1   29516dc98b4b   20 months ago   546 MB

sealos rmi -f [IMAGE ID]   # 删除镜像

3、部署k8s集群
方式一:

# 生成集群部署文件
sealos gen labring/kubernetes:v1.21.0 labring/calico:v3.22.1 \
--masters x.x.x.x,x.x.x.x \
--nodes x.x.x.x,x.x.x.x \
--passwd 'password' > Clusterfile
# 修改Clusterfile,在文件的最后加入如下内容:
---
apiVersion: kubeadm.k8s.io/v1beta2
kind: ClusterConfiguration
networking:
  podSubnet: 172.16.0.0/16
---
apiVersion: apps.sealos.io/v1beta1
kind: Config
metadata:
  name: calico
spec:
  path: manifests/calico.yaml
  data: |
    apiVersion: operator.tigera.io/v1
    kind: Installation
    metadata:
      name: default
    spec:
      # Configures Calico networking.
      calicoNetwork:
        # Note: The ipPools section cannot be modified post-install.
        ipPools:
        - blockSize: 26
          # Note: Must be the same as podCIDR
          cidr: 172.16.0.0/16
          encapsulation: IPIP
          natOutgoing: Enabled
          nodeSelector: all()
        nodeAddressAutodetectionV4:
          interface: "eth1"
# 开始部署集群
sealos apply -f /root/Clusterfile

 方式二:

sealos run labring/kubernetes:v1.21.0 labring/calico:v3.22.1 \
--masters x.x.x.x,x.x.x.x \
--nodes x.x.x.x,x.x.x.x \
-p 'password'

4、查看node节点状态,Ready为正常
kubectl get nodes -o wide

5、去除节点的污点,否则pod不调度到有污点标记的节点

kubectl describe node NODE_NAME | grep Taint    # 查看节点是否有污点
kubectl taint node NODE_NAME node-role.kubernetes.io/master:NoSchedule      # 在节点上增加污点
kubectl taint node NODE_NAME node-role.kubernetes.io/master:NoSchedule-     # 去掉节点污点
kubectl taint node master1 node-role.kubernetes.io/master:NoSchedule-
kubectl taint node node1 node-role.kubernetes.io/master:NoSchedule-

6、重启coredns
kubectl rollout restart deploy coredns -n kube-system

7、修改internal-ip,在KUBELET_EXTRA_ARGS参数的最后加上node节点eth1的IP地址
vim /var/lib/kubelet/kubelet-flags.env
KUBELET_EXTRA_ARGS="--pod-infra-container-image=k8s.gcr.io/pause:3.4.1 --container-runtime=remote --runtime-request-timeout=15m --container-runtime-endpoint=unix:///run/containerd/containerd.sock --image-service-endpoint=unix:///var/run/image-cri-shim.sock --node-ip=x.x.x.x"
#重启kubelet服务
systemctl daemon-reload
systemctl restart kubelet
#确认k8s集群节点的internal-ip是否已经修改
kubectl get nodes -o wide

8、sealos常用命令

添加节点
sealos add --masters x.x.x.x  --nodes x.x.x.x
sealos add --masters x.x.x.x-x.x.x.x --nodes x.x.x.x-x.x.x.x
删除节点
sealos delete --nodes x.x.x.x
sealos delete --masters x.x.x.x --nodes x.x.x.x
清理集群
sealos reset --help
sealos reset
sealos reset --masters x.x.x.x,x.x.x.x,x.x.x.x

9、sealos常见问题处理

# sealos部署k8s集群卡下面的状态,原因为没有etcd pod
10.10.10.1:22: [etcd] Waiting for the new etcd member to join the cluster. This can take up to 40s
10.10.10.1:22: [kubelet-check] Initial timeout of 40s passed.
# 解决方法,编辑对应节点上的etcd.yaml文件然后保存退出:
vim /etc/kubernetes/manifests/etcd.yaml

三、kubeadm配置多master k8s集群
1、配置hosts

cat >> /etc/hosts << EOF
192.168.140.130 master1
192.168.140.131 master2
192.168.140.132 node1
185.199.109.133 raw.githubusercontent.com
EOF

2、关闭交换分区和修改内核参数(略)
3、开启ipvs功能,所有节点都要开启

yum -y install ipvsadm conntrack ntpdate
cat >/etc/sysconfig/modules/ipvs.modules<<\EOF
#!/bin/bash
ipvs_modules="ip_vs ip_vs_lc ip_vs_wlc ip_vs_rr ip_vs_wrr ip_vs_lblc ip_vs_lblcr ip_vs_dh ip_vs_sh ip_vs_nq ip_vs_sed ip_vs_ftp nf_conntrack"
for kernel_module in ${ipvs_modules}; do
    /sbin/modinfo -F filename ${kernel_module} > /dev/null 2>&1
    if [ 0 -eq 0 ]; then
        /sbin/modprobe ${kernel_module}
    fi
done
EOF
chmod 755 /etc/sysconfig/modules/ipvs.modules && bash /etc/sysconfig/modules/ipvs.modules && lsmod | grep ip_vs

4、安装和配置nginx、keepalived,注意安装完keepalived需测试虚拟出来的VIP能否正常访问
[root@master1 ~]# yum -y install nginx nginx-mod-stream keepalived
[root@master1 ~]# cat /etc/nginx/nginx.conf

stream {
    log_format  main  '$remote_addr $upstream_addr - [$time_local] $status $upstream_bytes_sent';
    access_log  /var/log/nginx/k8s-access.log  main;
    upstream k8s-apiserver {
        server 192.168.140.130:6443 weight=5 max_fails=3 fail_timeout=30s; 
        server 192.168.140.131:6443 weight=5 max_fails=3 fail_timeout=30s;
    }

    server {
       listen 16443;  #由于nginx与master节点复用,这个监听端口不能是6443,否则会冲突
       proxy_pass k8s-apiserver;
    }
}

[root@master1 ~]# cat /etc/keepalived/keepalived.conf

! Configuration File for keepalived

global_defs {
   router_id LVS_DEVEL
}

vrrp_instance VI_1 {
    state MASTER
    interface eth0
    virtual_router_id 51
    priority 105
    advert_int 1
    authentication {
        auth_type PASS
        auth_pass 1111
    }
    virtual_ipaddress {
        192.168.140.133
    }
}

[root@master1 ~]# systemctl enable --now nginx.service keepalived.service
说明:
       master2上的nginx和keepalived配置同master1
5、安装docker服务和k8s组件(略)
6、创建kubeadm-config.yaml文件
[root@master1 ~]# cat kubeadm-config.yaml

apiVersion: kubeadm.k8s.io/v1beta2
kind: ClusterConfiguration
kubernetesVersion: v1.23.3    # 版本号必需要和安装kubelet,kubeadm,kubectl组件时指定的版本号一致
controlPlaneEndpoint: 192.168.140.133:16443   # VIP地址和端口
imageRepository: registry.aliyuncs.com/google_containers
apiServer:
 certSANs:
 - 192.168.140.130
 - 192.168.140.131
 - 192.168.140.132
 - 192.168.140.133
networking:
  podSubnet: 10.244.0.0/16
  serviceSubnet: 10.10.0.0/16
---
apiVersion: kubeproxy.config.k8s.io/v1alpha1
kind:  KubeProxyConfiguration
mode: ipvs

7、开始初始化集群
[root@master1 ~]# kubeadm init --config /root/kubeadm-config.yaml --ignore-preflight-errors=SystemVerification

  三、K8S常用yaml配置文件

# yaml格式的pod文件完整内容:
apiVersion: v1     #必选,版本号,例如v1
kind: Pod       #必选,指定创建资源的角色/类型  
metadata:        #必选,资源的元数据/属性 
  name: string       #必选,资源的名字,在同一个namespace中必须唯一  
  namespace: string     #必选,Pod所属的命名空间
  labels:      #自定义标签,使这个标签在service网络中备案,以便被获知
    - name: string   #自定义标签名字
  annotations:       #设置自定义注解列表  
    - name: string   #设置自定义注解名字  
spec:         #必选,设置该资源的详细定义
  nodeName: k8s-node01  # 指定节点名称,该参数会将pod部署到指定的node节点
  containers:    #必选,Pod中容器列表
  - name: string     #必选,容器名称
    image: string    #必选,容器的镜像名称
    imagePullPolicy: [Always | Never | IfNotPresent] #获取镜像的策略 Alawys表示下载镜像 IfnotPresent表示优先使用本地镜像,否则下载镜像,Nerver表示仅使用本地镜像
    command: [string]    #容器的启动命令列表,如不指定,使用打包时使用的启动命令
    args: [string]     #容器的启动命令参数列表
    workingDir: string   #容器的工作目录
    volumeMounts:        #挂载到容器内部的存储卷配置
    - name: string     #引用pod定义的共享存储卷的名称,需用volumes[]部分定义的的卷名
      mountPath: string    #存储卷在容器内mount的绝对路径,应少于512字符
      readOnly: boolean    #是否为只读模式
    ports:       #需要暴露的端口库号列表
    - name: string     #端口号名称
      containerPort: int  #容器需要监听的端口号
      hostPort: int    #容器所在主机需要监听的端口号,默认与Container相同
      protocol: string     #端口协议,支持TCP和UDP,默认TCP
    env:       #容器运行前需设置的环境变量列表
    - name: string     #环境变量名称
      value: string    #环境变量的值
    resources:       #资源限制和请求的设置
      limits:      #资源限制的设置
        cpu: string    #Cpu的限制,单位为core数,将用于docker run --cpu-shares参数
        memory: string   #内存限制,单位可以为Mib/Gib,将用于docker run --memory参数
      requests:         #资源请求的设置
        cpu: string    #Cpu请求,容器启动的初始可用数量
        memory: string   #内存清楚,容器启动的初始可用数量
    livenessProbe:     #对Pod内个容器健康检查的设置,当探测无响应几次后将自动重启该容器,检查方法有exec、httpGet和tcpSocket,对一个容器只需设置其中一种方法即可
      exec:      #对Pod容器内检查方式设置为exec方式
        command: [string]  #exec方式需要制定的命令或脚本
      httpGet:       #对Pod内个容器健康检查方法设置为HttpGet,需要制定Path、port
        path: string
        port: number
        host: string
        scheme: string
        HttpHeaders:
        - name: string
          value: string
      tcpSocket:     #对Pod内个容器健康检查方式设置为tcpSocket方式
         port: number
       initialDelaySeconds: 0  #容器启动完成后首次探测的时间,单位为秒
       timeoutSeconds: 0   #对容器健康检查探测等待响应的超时时间,单位秒,默认1秒
       periodSeconds: 0    #对容器监控检查的定期探测时间设置,单位秒,默认10秒一次
       successThreshold: 0
       failureThreshold: 0
       securityContext:
         privileged:false
    restartPolicy: [Always | Never | OnFailure]#Pod的重启策略,Always表示一旦不管以何种方式终止运行,kubelet都将重启,OnFailure表示只有Pod以非0退出码退出才重启,Nerver表示不再重启该Pod
    nodeSelector: obeject  #设置NodeSelector表示将该Pod调度到包含这个label的node上,以key:value的格式指定
    imagePullSecrets:    #Pull镜像时使用的secret名称,以key:secretkey格式指定
    - name: string
    hostNetwork:false      #是否使用主机网络模式,默认为false,如果设置为true,表示使用宿主机网络
    volumes:       #在该pod上定义共享存储卷列表
    - name: string     #共享存储卷名称 (volumes类型有很多种)
      emptyDir: {}     #类型为emtyDir的存储卷,与Pod同生命周期的一个临时目录。为空值
      hostPath: string     #类型为hostPath的存储卷,表示挂载Pod所在宿主机的目录
        path: string     #Pod所在宿主机的目录,将被用于同期中mount的目录
      secret:      #类型为secret的存储卷,挂载集群与定义的secre对象到容器内部
        scretname: string  
        items:     
        - key: string
          path: string
      configMap:     #类型为configMap的存储卷,挂载预定义的configMap对象到容器内部
        name: string
        items:
        - key: string
          path: string
pod.yaml配置文件
# yaml格式的Deployment文件完整内容:
apiVersion: extensions/v1beta1
kind: Deployment
metadata: ----------------------------------------#元数据
  annotations: -------------------------------------#注释信息
    deployment.kubernetes.io/revision: '1'
    k8s.kuboard.cn/ingress: 'false'
    k8s.kuboard.cn/service: NodePort
    k8s.kuboard.cn/workload: nextcloud
  labels:-------------------------------------------#标签信息
    k8s.kuboard.cn/layer: ''            
    k8s.kuboard.cn/name: nextcloud
  name: nextcloud-----------------------------------#名称
  namespace: nextcloud------------------------------#命名空间 
spec:-----------------------------------------------#定义容器模板,该模板可以包含多个容器 
  replicas: 3---------------------------------------#副本数量
  selector:-----------------------------------------#标签选择器
    matchLabels:
      k8s.kuboard.cn/layer: ''
      k8s.kuboard.cn/name: nextcloud
  strategy:-----------------------------------------#滚动升级策略
    type: RollingUpdate-----------------------------#类型
    rollingUpdate:----------------------------------#由于replicas为3,则整个升级,pod个数在2-4个之间    
      maxSurge: 25%---------------------------------#滚动升级时会先启动25%pod  
      maxUnavailable: 25%---------------------------#滚动升级时允许的最大Unavailable的pod个数
  template:                     #镜像模板                   
    metadata: ------------------------------------#元数据
      labels:---------------------------------------#标签
        k8s.kuboard.cn/layer: ''
        k8s.kuboard.cn/name: nextcloud
    spec: ------------------------------------------#定义容器模板,该模板可以包含多个容器
      containers: ----------------------------------#容器信息
    - name: nextcloud --------------------------#容器名称
          image: '172.16.20.100/library/nextcloud:yan' #镜像名称
          imagePullPolicy: Always ------------------#镜像下载策略 
          ports:
            - name: http
              containerPort: 80
              protocol: TCP
          env
          resources: -------------------------------#CPU内存限制
        limits: --------------------------------#限制cpu内存                      
              cpu: 200m
              memory: 200m
            requests: ------------------------------#请求cpu内存
              cpu: 100m
              memory: 100m
          securityContext: -------------------------#安全设定
            privileged: true -----------------------#开启享有特权
          volumeMounts: ----------------------------#挂载volumes中定义的磁盘
        - name: html ---------------------------#挂载容器1
              mountPath: /var/www/html 
            - name: session ------------------------#挂载容器1
              mountPath: /var/lib/php/session       
      volumes:  ------------------------------------#在该pod上定义共享存储卷列表
        - name: html -------------------------------#共享存储卷名称 (volumes类型有很多种)
          persistentVolumeClaim: -------------------#volumes类型为pvc
            claimName: html  -----------------------#关联pvc名称
        - name: session
          persistentVolumeClaim:
            claimName: session        
      restartPolicy: Always ------------------------#Pod的重启策略 
                              #Always表示一旦不管以何种方式终止运行,kubelet都将重启,
                              #OnFailure表示只有Pod以非0退出码退出才重启,
                              #Nerver表示不再重启该Pod
      schedulerName: default-scheduler -------------#指定pod调度到节点
Deployment.yaml配置文件
# yaml格式的Service文件完整内容:
apiVersion: v1
kind: Service
metadata:  ---------------------------------#元数据
  annotations: -----------------------------#注释信息
    k8s.kuboard.cn/workload: nextcloud
  labels: ----------------------------------#标签信息
    k8s.kuboard.cn/layer: ''
    k8s.kuboard.cn/name: nextcloud
  name: nextcloud --------------------------#名称
  namespace: nextcloud ---------------------#命名空间
spec: --------------------------------------#定义Service模板
  clusterIP: 10.0.181.206 ------------------#指定svcip地址 不指定则随机 
  
 =================================================================================================
  #NodePort类型:集群外网络
  type: NodePort ---------------------------#类型为NodePort  
  ports:
    - name: mnwwwp
      nodePort: 30001 ----------------------#当type = NodePort时,指定映射到物理机的端口号
      port: 80 -----------------------------#服务监听的端口号
      protocol: TCP ------------------------#端口协议,支持TCP和UDP,默认TCP
      targetPort: 80 -----------------------#需要转发到后端Pod的端口号
  
  ==================================================================================================
  #ClusterIP类型: 集群内网络
  type: ClusterIP --------------------------#
  ports:
    - name: mnwwwp
      port: 80
      protocol: TCP
      targetPort: 80
    - name: j5smwx
      port: 22
      protocol: TCP
      targetPort: 22
      
  selector:  -------------------------------#label selector配置,将选择具有label标签的Pod作为管理 
    k8s.kuboard.cn/layer: ''
    k8s.kuboard.cn/name: nextcloud
  sessionAffinity: None --------------------#是否支持session
Service.yaml配置文件
apiVersion: batch/v1beta1
kind: CronJob
metadata:
 name: my-cronjob
 namespace: dev
spec:
 schedule: "*/1 * * * *"  # 表示每分钟执行一次作业
 #successfulJobsHistoryLimit: 1 # 默认3
 #failedJobsHistoryLimit: 1 # 默认1
 #startingDeadlineSeconds: 60  # CronJob控制器将测量从预期创建作业到现在之间的时间。如果差异高于该限制,它将跳过此执行。 例如,如果设置为200,则它允许在实际计划后最多200秒内创建作业。
 jobTemplate:
  spec:
   #activeDeadlineSeconds: 5 # 设置了Pod最大运行时间为5秒,如果超过这个时间就会被Kubernetes强制删除。
   #ttlSecondsAfterFinished: 30
   template:
    spec:
     #terminationGracePeriodSeconds: 0  #当需要关闭容器时,立即杀死容器而不等待默认的30秒优雅停机时长
     containers:
     - name: my-cronjob
       image: 172.171.2.148:5000/busybox
       imagePullPolicy: Always
       - command:
            - sh
            - -c
            - date;sleep 10
     restartPolicy: OnFailure  # 在容器执行失败时重新启动容器


# CronJob资源属性
# 1、schedule
# *   *   *  *  * command
# 分 小时 日 月 周 要运行的命令
# 第1列分钟(059)
# 第2列小时(023)
# 第3列日(131)
# 第4列月(112)
# 第5列星期(07)(0和7表示星期天)
# 第6列要运行的命令
# 2、successfulJobsHistoryLimit
# 保留执行成功的历史记录次数,默认值是3。
# 假如设置为5,就会保留过去5次成功的执行记录
# 3、failedJobsHistoryLimit
# 保留执行失败的历史记录次数,默认值是1。
# 假如设置为3,就会保留过去3次失败的执行记录
# 4、startingDeadlineSeconds
# 它表示任务如果由于某种原因错过了调度时间,开始该任务的截止时间的秒数。
# 控制器将测量从预期创建作业到现在之间的时间。
# 如果差异高于该限制,它将跳过此执行。
# 例如,如果设置为60,则它允许在实际计划后最多60 秒内创建作业。
# 5、ttlSecondsAfterFinished
# 假如jobTemplate添加了ttlSecondsAfterFinished,这个时候successfulJobsHistoryLimit和failedJobsHistoryLimit就会失效。
# 例如ttlSecondsAfterFinished设置成30,这样不管这次的job是成功还是失败,在30秒后会照样清除
Cronjob.yaml配置文件

四、K8S常用命令

# 自定义输出列,--no-headers不显示表头
kubectl get pod -A -o custom-columns="NameSpace:.metadata.namespace,Name:.metadata.name,Status:.status.phase,IP:.status.podIP,NodeName:.spec.nodeName" --no-headers
kubectl get svc -l app=grafana -o custom-columns="NAME:.metadata.name,TYPE:.spec.type,CLUSTER-IP:.spec.clusterIP,PORT(S):.spec.ports[*].port" --no-headers
# 重启deployments资源pod
kubectl rollout restart deployment grafana
# 强制删除pod
kubectl delete pod -l app=grafana -n [namespace] --grace-period=0 --force
# kubectl cp命令只支持从本地复制到Pod或从Pod复制到本地,不支持直接在两个Pod之间复制文件
kubectl cp <namespace>/<pod-name>:/var/logs/app.log /tmp/app.log
# 进入pod
kubectl -n [namespace] exec -it [podname] -- /bin/bash
kubectl exec -it [podname] -- ping X.X.X.X
kubectl exec -it mariadb -- mysql -u[username] -p[password] -D[database] -e 'SELECT * FROM userinfo;'
# 查看正在运行的pod镜像版本(以下示例namespace为default)
kubectl get pod -l app=grafana --no-headers | awk '{cmd="kubectl describe pod "$1" | grep 'Image:.*grafana'";cmd|getline var;print var}'
kubectl get pod -l app=grafana --no-headers | awk '{cmd="kubectl describe pod "$1" | grep 'Image:.*grafana'";system(cmd)}'
kubectl get pod -l app=grafana --no-headers | awk '{cmd="kubectl describe pod "$1" | grep 'Image:.*grafana'";print cmd | "/bin/bash"}'
# 批量查看k8s组件版本
for i in coredns etcd apiserver controller-manager proxy;do kubectl get pod -n kube-system | grep $i | awk -v res=$i '{cmd="kubectl describe pod "$1" -n kube-system | grep 'Image:.*'"res;system(cmd)}';done
# 获取所有的资源状态
kubectl get all -A
# 获取nginx的deployment资源状态
kubectl get deployment nginx
# 列出所有的deployments资源状态以及它们的标签
kubectl get deployment -A --show-labels
# 获取所有cronjob任务状态以及它们的标签
kubectl get cj/cronjobs -A --show-labels
# 重启cronjob任务
kubectl delete cj/cronjobs [cronjob-name] -n [NAMESPACE]
kubectl apply -f cronjob-name.yaml
# 生成cronjob资源文件,--dry-run=client,不提交到后台,只生成yaml文件,一般用来验证yaml文件
kubectl create cronjob my-cronjob --image=busybox --schedule="*/1 * * * *" --dry-run=client -o yaml -- sh -c "date;sleep 10" > my-cronjob.yaml
# 过滤状态不等于Running且app名称为iperf的pod
kubectl get pod -A -o wide -l app=iperf --field-selector=status.phase!=Running

五、 强制删除Terminating的ns

# 方法一:
kubectl delete ns ingress-nginx --force --grace-period=0
# 方法二:
kubectl get ns ingress-nginx -o json > ingress-nginx.json
# 删除文件中的"kubernetes"保存即可,修改前:
    "spec": {
        "finalizers": [
            "kubernetes"
        ]
    },
# 修改后:
    "spec": {
        "finalizers": [
            ""
        ]
    },
# 修改完执行以下命令
# kubectl replace --raw "/api/v1/namespaces/{namespaces}/finalize" -f ./ingress-nginx.json
kubectl replace --raw "/api/v1/namespaces/ingress-nginx/finalize" -f ./ingress-nginx.json

六、在K8S集群上使用nsenter命令进入pod的网络名称空间

# docker命令查找容器pid
# 查看Pod所在的宿主机
sudo kubectl get pod [PODNAME]-n [NAMESPACE] -o wide
# 在Pod所在的宿主机上执行以下命令获取容器pid
sudo kubectl get pod [PODNAME] -n [NAMESPACE] -o jsonpath='{.status.containerStatuses[*].containerID}' | cut -d'/' -f3 | xargs sudo docker inspect --format '{{ .State.Pid }}'
# 使用nsenter命令进入容器网络名称空间
sudo nsenter -n -t [CONTAINER-PID]

# crictl命令查找容器pid
# 查看容器id(查看其它宿主机上pod的容器id需要登录到相应pod的宿主机)
[root@K8S ~]# crictl ps --name grafana
CONTAINER       IMAGE           CREATED        STATE     NAME      ATTEMPT   POD ID
e5bdc1c0ee349   8d0b77430ee96   4 months ago   Running   grafana   0         305caef6e1d5c
[root@K8S ~]# crictl ps --name grafana -o json | jq -r '.containers|.[].id[0:13]'
e5bdc1c0ee349
# 登录到容器所在的宿主机上执行以下命令查找容器pid
crictl inspect -o json [CONTAINER-ID] | jq '.info.pid'
[root@K8S ~]# crictl inspect -o json e5bdc1c0ee349 | jq '.info.pid'
3777131
# 使用nsenter命令进入容器网络名称空间
nsenter -n -t [CONTAINER-PID]
[root@K8S ~]# nsenter -n -t 3777131

七、kubectl tab补齐指令

# 安装bash-completion或zsh-completion
yum install bash-completion zsh-completion
# 临时添加(kubectl completion --help)
source <(kubectl completion bash)
# 写入~/.bashrc文件永久生效(只单个用户有效)
echo "source <(kubectl completion bash)" >> ~/.bashrc
# 加载配置文件立即生效
source ~/.bashrc
# 所有用户都生效
kubectl completion bash | sudo tee /etc/bash_completion.d/kubectl > /dev/null
kubectl completion bash > /usr/share/bash-completion/completions/kubectl

七、k8s排错逻辑图

 

参考链接:
      https://asciinema.org/       # 终端录制,安装前需要安装epel源
      https://zhuanlan.zhihu.com/p/163107995      # Kubernetes单master部署
      https://zhuanlan.zhihu.com/p/639042196
      https://www.cnblogs.com/shuiyao3/p/17290271.html
      https://www.cnblogs.com/fengdejiyixx/p/16576021.html
      https://sealos.io/docs/Intro
      https://sealos.run/docs/Intro
      https://github.com/wheatMr/sealos
      https://github.com/labring/sealos
      https://blog.csdn.net/xiaoliizi/article/details/126998976      # 使用sealos部署k8s集群
      https://github.com/projectcalico/calico/releases     # calico离线包下载,k8s下载release-v3.26.3.tgz包
      https://docs.tigera.io/calico/latest/getting-started/kubernetes/quickstart     # 官网calico安装方法
      https://blog.csdn.net/ma_jiang/article/details/124962352      # K8S Calico网络插件介绍
      https://github.com/KubeOperator/KubeOperator
      https://icloudnative.io/posts/kubesphere/
      https://www.kubesphere.io/zh/docs/v3.3/quick-start/all-in-one-on-linux/       #在linux上安装Kubernetes和KubeSphere
      https://blog.csdn.net/qq_25775675/article/details/121671679     # Kubernetes调度器-固定节点
      https://support.huaweicloud.com/function-cce/index.html        # k8s介绍
      https://www.cnblogs.com/zoujiaojiao/p/17021724.html     # k8s中使用nsenter命令进入容器网络命名空间
      https://www.cnblogs.com/cheyunhua/p/15922573.html    # kubeadmin部署多master节点
      https://www.cnblogs.com/yangmeichong/p/17124171.html      # k8s1.25多master节点集群部署
      https://www.cnblogs.com/wuqiuyin/p/17028935.html     # k8s多master节点部署
      https://kubernetes.io/zh-cn/docs/concepts/overview/working-with-objects/field-selectors/   # k8s字段选择器
      https://www.yuque.com/wei.luo/network     # k8s网络

posted @ 2023-08-21 15:49  風£飛  阅读(210)  评论(0编辑  收藏  举报