K8S之控制器详解

K8S之控制器详解#

简介#

在kubernetes中,按照Pod的创建方式可以将其分为两类:

  • 自主式:kubernetes直接创建出来的Pod,这种Pod删除后就没有了,也不会重建。
  • 控制器创建pod:通过Pod控制器创建的Pod,这种Pod删除之后还会自动重建。

Pod控制器是管理Pod的中间层,使用了Pod控制器之后,我们只需要告诉Pod控制器,想要多少个什么样的Pod就可以了,它就会创建出满足条件的Pod并确保每一个Pod处于用户期望的状态,如果Pod在运行中出现故障,控制器会基于指定的策略重启或重新创建pod

控制器种类#

在kubernetes中,有很多类型的Pod控制器,每种都有自己的适合的场景,常见的有下面这些:

  • ReplicationController:比较原始的Pod控制器,已经被废弃,由ReplicaSet替代。
  • ReplicaSet:保证指定数量的Pod运行,并支持Pod数量变更,镜像版本变更。
  • Deployment:通过控制ReplicaSet来控制Pod,并支持滚动升级、版本回退。
  • Horizontal Pod Autoscaler:以根据集群负载自动调整Pod的数量,实现削峰填谷。
  • DaemonSet:在集群中的指定Node上都运行一个副本,一般用于守护进程类的任务。
  • Job:它创建出来的Pod只要完成任务就立即退出,用于执行一次性任务。
  • CronJob:它创建的Pod会周期性的执行,用于执行周期性的任务。
  • StatefulSet:管理有状态的应用。

ReplicatSet#

简介#

ReplicaSet的主要作用是保证一定数量的Pod能够正常运行,它会持续监听这些Pod的运行状态,一旦Pod发生故障,就会重启或重建。同时它还支持对Pod数量的扩缩容和版本镜像的升级。

rs

资源清单文件#

Copy
apiVersion: apps/v1 # 版本号 kind: ReplicaSet # 类型 metadata: # 元数据 name: # rs名称 namespace: # 所属命名空间 labels: #标签 controller: rs spec: # 详情描述 replicas: 3 # 副本数量 selector: # 选择器,通过它指定该控制器管理哪些po matchLabels: # Labels匹配规则 app: nginx-pod matchExpressions: # Expressions匹配规则 - {key: app, operator: In, values: [nginx-pod]} template: # 模板,当副本数量不足时,会根据下面的模板创建pod副本 metadata: labels: app: nginx-pod spec: containers: - name: nginx image: nginx:1.17.1 ports: - containerPort: 80

在这里,需要新了解的配置项就是spec下面几个选项:

replicas:指定副本数量,其实就是当然rs创建出来的Pod的数量,默认为1.

selector:选择器,它的作用是建立Pod控制器和Pod之间的关联关系,采用了Label Selector机制(在Pod模块上定Label,在控制器上定义选择器,就可以表明当前控制器能管理哪些Pod了)。

template:模板,就是当前控制器创建Pod所使用的模板,里面其实就是前面学过的Pod的定

创建ReplicaSet#

Copy
cat > pc-replicaset.yaml << EOF apiVersion: apps/v1 # 版本号 kind: ReplicaSet # 类型 metadata: # 元数据 name: pc-replicaset # rs名称 namespace: dev # 命名类型 spec: # 详细描述 replicas: 3 # 副本数量 selector: # 选择器,通过它指定该控制器可以管理哪些Pod matchLabels: # Labels匹配规则 app: nginx-pod template: # 模块 当副本数据不足的时候,会根据下面的模板创建Pod副本 metadata: labels: app: nginx-pod spec: containers: - name: nginx # 容器名称 image: nginx:1.17.1 # 容器需要的镜像地址 ports: - containerPort: 80 # 容器所监听的端口 EOF # 创建rs [root@master k8s]# kubectl create -f pc-replicaset.yaml # 查看rs [root@master k8s]# kubectl get -n dev rs pc-replicaset -o wide

image-20211024141447471

扩缩容#

Copy
# 编辑rs的副本数量,修改spec:replicas:6即可。 [root@master k8s]# kubectl edit -n dev rs pc-replicaset [root@master k8s]# kubectl get -n dev pod

image-20211024141659976

Copy
# --replicas=3指定pod数量 [root@master k8s]# kubectl scale -n dev rs pc-replicaset --replicas=3 [root@master k8s]# kubectl get -n dev pod

image-20211024141818034

镜像升级#

Copy
# 编辑rs的容器镜像,修改spec:containers:image为nginx:1.17.2即可 [root@master k8s]# kubectl edit -n dev rs pc-replicaset [root@master k8s]# kubectl get -n dev rs -o wide

image-20211024142108338

Copy
# kubectl set image rs rs名称 容器名称=镜像版本 -n 命名空间 [root@master k8s]# kubectl set image -n dev rs pc-replicaset nginx=nginx:1.17.1 [root@master k8s]# kubectl get -n dev rs -o wide

image-20211024142247620

删除ReplicaSet#

Copy
# 在kubernetes删除ReplicaSet前,会将ReplicaSet的replicas调整为0,等到所有的Pod被删除后,再执行ReplicaSet对象的删除 [root@master k8s]# kubectl delete rs pc-replicaset -n dev [root@master k8s]# kubectl get rs,pod -n dev

image-20211024142450077

Copy
# 如果希望仅仅删除ReplicaSet对象(保留Pod),只需要在使用kubectl delete rs命令的时候添加--cascade=false选项(不推荐) kubectl delete rs pc-replicaset -n dev --cascade=false

Deployment#

简介#

为了更好的解决服务编排的问题,kubernetes在v1.2版本开始,引入了Deployment控制器。值得一提的是,Deployment控制器并不直接管理Pod,而是通过管理ReplicaSet来间接管理Pod,即:Deployment管理ReplicaSet,ReplicaSet管理Pod。所以Deployment的功能比ReplicaSet强大。

dp

Deployment的主要功能如下:

  • 支持ReplicaSet的所有功能。

  • 支持发布的停止、继续。

  • 支持版本滚动更新和版本回退。

Deployment资源清单#

Copy
apiVersion: apps/v1 # 版本号 kind: Deployment # 类型 metadata: # 元数据 name: # rs名称 namespace: # 所属命名空间 labels: #标签 controller: deploy spec: # 详情描述 replicas: 3 # 副本数量 revisionHistoryLimit: 3 # 保留历史版本,默认为10 paused: false # 暂停部署,默认是false progressDeadlineSeconds: 600 # 部署超时时间(s),默认是600 strategy: # 策略 type: RollingUpdate # 滚动更新策略 rollingUpdate: # 滚动更新 maxSurge: 30% # 最大额外可以存在的副本数,可以为百分比,也可以为整数 maxUnavailable: 30% # 最大不可用状态的 Pod 的最大值,可以为百分比,也可以为整数 selector: # 选择器,通过它指定该控制器管理哪些pod matchLabels: # Labels匹配规则 app: nginx-pod matchExpressions: # Expressions匹配规则 - {key: app, operator: In, values: [nginx-pod]} template: # 模板,当副本数量不足时,会根据下面的模板创建pod副本 metadata: labels: app: nginx-pod spec: containers: - name: nginx image: nginx:1.17.1 ports: - containerPort: 80

创建Deployment#

Copy
cat > pc-deployment.yaml << EOF apiVersion: apps/v1 # 版本号 kind: Deployment # 类型 metadata: # 元数据 name: pc-deployment # deployment的名称 namespace: dev # 命名类型 spec: # 详细描述 replicas: 3 # 副本数量 selector: # 选择器,通过它指定该控制器可以管理哪些Pod matchLabels: # Labels匹配规则 app: nginx-pod template: # 模块 当副本数据不足的时候,会根据下面的模板创建Pod副本 metadata: labels: app: nginx-pod spec: containers: - name: nginx # 容器名称 image: nginx:1.17.1 # 容器需要的镜像地址 ports: - containerPort: 80 # 容器所监听的端口 EOF # 创建Deploy [root@master k8s]# kubectl create -f pc-deployment.yaml # 查看 [root@master k8s]# kubectl get -n dev deployments pc-deployment -o wide

image-20211024143748978

扩缩容#

Copy
# 编辑Deployment的副本数量,修改spec:replicas:6即可 [root@master k8s]# kubectl edit -n dev deployments pc-deployment [root@master k8s]# kubectl get pod -n dev

image-20211024143942826

Copy
# 使用命令进行修改 [root@master k8s]# kubectl scale -n dev deployment pc-deployment --replicas=3 [root@master k8s]# kubectl get pod -n dev

image-20211024144056402

镜像更新#

Deployment支持两种镜像更新的策略:重建更新滚动更新(默认),可以通过strategy选项进行配置。

Copy
strategy: 指定新的Pod替代旧的Pod的策略,支持两个属性 type: 指定策略类型,支持两种策略 Recreate:在创建出新的Pod之前会先杀掉所有已经存在的Pod RollingUpdate:滚动更新,就是杀死一部分,就启动一部分,在更新过程中,存在两个版本的Pod rollingUpdate:当type为RollingUpdate的时候生效,用于为rollingUpdate设置参数,支持两个属性: maxUnavailable:用来指定在升级过程中不可用的Pod的最大数量,默认为25%。 maxSurge: 用来指定在升级过程中可以超过期望的Pod的最大数量,默认为25%。
重建更新
Copy
cat > pc-deployment.yaml << EOF apiVersion: apps/v1 # 版本号 kind: Deployment # 类型 metadata: # 元数据 name: pc-deployment # deployment的名称 namespace: dev # 命名类型 spec: # 详细描述 replicas: 3 # 副本数量 strategy: # 镜像更新策略 type: Recreate # Recreate:在创建出新的Pod之前会先杀掉所有已经存在的Pod selector: # 选择器,通过它指定该控制器可以管理哪些Pod matchLabels: # Labels匹配规则 app: nginx-pod template: # 模块 当副本数据不足的时候,会根据下面的模板创建Pod副本 metadata: labels: app: nginx-pod spec: containers: - name: nginx # 容器名称 image: nginx:1.17.1 # 容器需要的镜像地址 ports: - containerPort: 80 # 容器所监听的端口 EOF # 加载yaml配文件 [root@master k8s]# kubectl apply -f pc-deployment.yaml # 版本更换 [root@master k8s]# kubectl set image deployment pc-deployment nginx=nginx:1.17.2 -n dev # 另起终端查看pod [root@master k8s]# kubectl get pod -n dev -w

image-20211024144733984

滚动更新
Copy
cat > pc-deployment.yaml << EOF apiVersion: apps/v1 # 版本号 kind: Deployment # 类型 metadata: # 元数据 name: pc-deployment # deployment的名称 namespace: dev # 命名类型 spec: # 详细描述 replicas: 3 # 副本数量 strategy: # 镜像更新策略 type: RollingUpdate # RollingUpdate:滚动更新,就是杀死一部分,就启动一部分,在更新过程中,存在两个版本的Pod rollingUpdate: maxUnavailable: 25% maxSurge: 25% selector: # 选择器,通过它指定该控制器可以管理哪些Pod matchLabels: # Labels匹配规则 app: nginx-pod template: # 模块 当副本数据不足的时候,会根据下面的模板创建Pod副本 metadata: labels: app: nginx-pod spec: containers: - name: nginx # 容器名称 image: nginx:1.17.1 # 容器需要的镜像地址 ports: - containerPort: 80 # 容器所监听的端口 EOF # 重新加载 [root@master k8s]# kubectl apply -f pc-deployment.yaml # 镜像升级 [root@master k8s]# kubectl set image deployment pc-deployment nginx=nginx:1.17.2 -n dev # 另起终端查看pod [root@master k8s]# kubectl get pod -n dev -w

image-20211024152422377

Copy
# 查看rs,发现原来的rs依旧存在,只是Pod的数量变为0,而后又产生了一个rs,Pod的数量变为3 # 其实这就是deployment能够进行版本回退的奥妙所在 [root@master k8s]# kubectl get rs -n dev

image-20211024152520106

版本回退#

Deployment支持版本升级过程中的暂停、继续功能以及版本回退等诸多功能,下面具体来看:

Copy
# 查看升级状态 [root@master k8s]# kubectl rollout status deployment pc-deployment -n dev

image-20211024152643320

Copy
# 查看升级历史记录 [root@master k8s]# kubectl rollout history deployment pc-deployment -n dev

image-20211024152759187

Copy
# 可以使用-to-revision=1回退到1版本,如果省略这个选项,就是回退到上个版本,即3版本 [root@master k8s]# kubectl rollout undo deployment pc-deployment --to-revision=3 -n dev

image-20211024153216607

deployment之所以能够实现版本的回退,就是通过记录下历史的ReplicaSet来实现的,一旦想回滚到那个版本,只需要将当前版本的Pod数量降为0,然后将回退版本的Pod提升为目标数量即可。

金丝雀发布#

Deployment支持更新过程中的控制,如暂停更新操作(pause)或继续更新操作(resume)。

例如有一批新的Pod资源创建完成后立即暂停更新过程,此时,仅存在一部分新版本的应用,主体部分还是旧的版本。然后,再筛选一小部分的用户请求到新版本的Pod应用,继续观察能够稳定的按照期望的方式运行,如果没有问题之后再继续完成余下的Pod资源的滚动更新,否则立即回滚操作。

Copy
[root@master k8s]# kubectl set image deployment pc-deployment nginx=nginx:1.17.4 -n dev && kubectl rollout pause deployment pc-deployment -n dev

image-20211024153705355

Copy
# 另起终端查看状态 [root@master k8s]# kubectl rollout status deployment pc-deployment -n dev

image-20211024153745196

Copy
# 查看rs # 监控更新的过程,可以看到已经新增了一个资源,但是并没有按照预期的状态去删除一个旧的资源,因为使用了pause暂停命令 [root@master k8s]# kubectl get -n dev rs

image-20211024153823686

Copy
# 查看pod [root@master k8s]# kubectl get -n dev pod

image-20211024153933659

Copy
# 继续更新 [root@master k8s]# kubectl rollout resume deployment pc-deployment -n dev # 查看 [root@master k8s]# kubectl get -n dev rs,pod -o wide

image-20211024154136351### Horizontal Pod Autoscaler

简介#

我们已经可以通过手动执行kubectl scale命令实现Pod的扩缩容,但是这显然不符合kubernetes的定位目标–自动化和智能化。kubernetes期望可以通过监测Pod的使用情况,实现Pod数量的自动调整,于是就产生了HPA这种控制器。

HPA可以获取每个Pod的利用率,然后和HPA中定义的指标进行对比,同时计算出需要伸缩的具体值,最后实现Pod的数量的调整。其实HPA和之前的Deployment一样,也属于一种kubernetes资源对象,它通过追踪分析目标Pod的负载变化情况,来确定是否需要针对性的调整目标Pod的副本数。

安装metrics-server#

Copy
# 下载 wget https://github.com/kubernetes-sigs/metrics-server/archive/v0.3.6.tar.gz # 解压 tar -zxvf v0.3.6.tar.gz # 切换目录 cd metrics-server-0.3.6/deploy/1.8+/ # 备份配置文件 cp metrics-server-deployment.yaml metrics-server-deployment.bak.yaml # 修改配置文件 vim metrics-server-deployment.yaml # 按图中添加下面选项 hostNetwork: true image: registry.cn-hangzhou.aliyuncs.com/google_containers/metrics-server-amd64:v0.3.6 args: - --kubelet-insecure-tls - --kubelet-preferred-address-types=InternalIP,Hostname,InternalDNS,ExternalDNS,ExternalIP

image-20211024172809405

Copy
# 安装metrics-server kubectl apply -f ./ # 查看metrics-server生成的Pod [root@master 1.8+]# kubectl get pod -n kube-system

image-20211024172940989

Copy
# 查看资源使用情况 [root@master 1.8+]# kubectl top node

image-20211024173034056

Copy
[root@master 1.8+]# kubectl top pod -n kube-system

image-20211024173110494

配置Deployment控制器#

Copy
cat > nginx.yaml << EOF apiVersion: apps/v1 # 版本号 kind: Deployment # 类型 metadata: # 元数据 name: nginx # deployment的名称 namespace: dev # 命名类型 spec: # 详细描述 selector: # 选择器,通过它指定该控制器可以管理哪些Pod matchLabels: # Labels匹配规则 app: nginx-pod template: # 模块 当副本数据不足的时候,会根据下面的模板创建Pod副本 metadata: labels: app: nginx-pod spec: containers: - name: nginx # 容器名称 image: nginx:1.17.1 # 容器需要的镜像地址 ports: - containerPort: 80 # 容器所监听的端口 resources: # 资源限制 requests: cpu: "100m" # 100m表示100millicpu,即0.1个CPU EOF # 创建控制器 [root@master k8s]# kubectl create -f nginx.yaml # 查看 [root@master k8s]# kubectl get pods,deploy -o wide -n dev

image-20211024173839260

创建service#

Copy
# 创建service [root@master k8s]# kubectl expose deployment nginx --name=nginx --type=NodePort --port=80 --target-port=80 -n dev [root@master k8s]# kubectl get svc -n dev -o wide

image-20211024174008274

部署HPA#

Copy
cat > pc-hpa.yaml << EOF apiVersion: autoscaling/v1 # 版本号 kind: HorizontalPodAutoscaler # 类型 metadata: # 元数据 name: pc-hpa # deployment的名称 namespace: dev # 命名类型 spec: minReplicas: 1 # 最小Pod数量 maxReplicas: 10 # 最大Pod数量 targetCPUUtilizationPercentage: 3 # CPU使用率指标 scaleTargetRef: # 指定要控制的Nginx的信息 apiVersion: apps/v1 kind: Deployment name: nginx EOF # 创建 [root@master k8s]# kubectl create -f pc-hpa.yaml [root@master k8s]# kubectl get hpa -n dev

image-20211024174217699

压力测试#

Copy
# 另起终端动态查询deploy [root@master k8s]# kubectl get deployment -n dev -w

image-20211024175221924

Copy
# 另起终端查询pod [root@master k8s]# kubectl get pod -n dev -w

image-20211024175334374

Copy
# 另起终端查询hpa [root@master k8s]# kubectl get -n dev hpa -w

image-20211024175259719

Copy
# ab进行压力测试 ab -n 1000 -c 1000 http://10.1.1.2:31742/index.html

image-20211024174850252

  • 正常流量的hpa

image-20211024180407681

  • 正常流量pod

image-20211024180456197

  • 正常流量deployment

image-20211024180551178### DaemonSet

简介#

DaemonSet类型的控制器可以保证集群中的每一台(或指定)节点上都运行一个副本,一般适用于日志收集、节点监控等场景。也就是说,如果一个Pod提供的功能是节点级别的(每个节点都需要且只需要一个),那么这类Pod就适合使用DaemonSet类型的控制器创建

ds

DaemonSet控制器的特点:

  • 每向集群中添加一个节点的时候,指定的Pod副本也将添加到该节点上。
  • 当节点从集群中移除的时候,Pod也会被垃圾回收。

资源清单#

Copy
apiVersion: apps/v1 # 版本号 kind: DaemonSet # 类型 metadata: # 元数据 name: # 名称 namespace: #命名空间 labels: #标签 controller: daemonset spec: # 详情描述 revisionHistoryLimit: 3 # 保留历史版本 updateStrategy: # 更新策略 type: RollingUpdate # 滚动更新策略 rollingUpdate: # 滚动更新 maxUnavailable: 1 # 最大不可用状态的Pod的最大值,可用为百分比,也可以为整数 selector: # 选择器,通过它指定该控制器管理那些Pod matchLabels: # Labels匹配规则 app: nginx-pod matchExpressions: # Expressions匹配规则 - key: app operator: In values: - nginx-pod template: # 模板,当副本数量不足时,会根据下面的模板创建Pod模板 metadata: labels: app: nginx-pod spec: containers: - name: nginx image: nginx:1.17.1 ports: - containerPort: 80

创建DaemonSet#

Copy
cat > pc-daemonset.yaml << EOF apiVersion: apps/v1 # 版本号 kind: DaemonSet # 类型 metadata: # 元数据 name: pc-damonset # 名称 namespace: dev #命名空间 spec: # 详情描述 selector: # 选择器,通过它指定该控制器管理那些Pod matchLabels: # Labels匹配规则 app: nginx-pod template: # 模板,当副本数量不足时,会根据下面的模板创建Pod模板 metadata: labels: app: nginx-pod spec: containers: - name: nginx image: nginx:1.17.1 ports: - containerPort: 80 EOF # 创建DS [root@master k8s]# kubectl create -f pc-daemonset.yaml [root@master k8s]# kubectl get -n dev ds -o wide

image-20211024212752023

在笔者心里安装DaemonSet如果没有配置Node-Selector应该会在所有的节点都会生成DaemonSet控制器,但是在此处我只有node2节点生成控制器,而node1节点没有生成,但是笔者所有node节点都是处于正常状态,至于为什么产生这样的原因没有排查成功,如果有大佬看到该文章麻烦告知一下排查思路,另外笔者只是一个本科生如果有错误的地方也请大家不要喷。

Job#

概述#

Job可以保证指定数量的pod批量完成一次性的任务

  • job创建的Pod成功结束的时候,job会记录pod的数量
  • 当记录的pod达到一定数量的时候,job执行完成

资源清单#

Copy
apiVersion: batch/v1 # 版本号 kind: Job # 类型 metadata: # 元数据 name: # 名称 namespace: #命名空间 labels: # 标签 controller: job spec: # 详情描述 completions: 1 # 指定Job需要成功运行Pod的总数量,默认为1 parallelism: 1 # 指定Job在任一时刻应该并发运行Pod的数量,默认为1 activeDeadlineSeconds: 30 # 指定Job可以运行的时间期限,超过时间还没结束,系统将会尝试进行终止 backoffLimit: 6 # 指定Job失败后进行重试的次数,默认为6 manualSelector: true # 是否可以使用selector选择器选择Pod,默认为false selector: # 选择器,通过它指定该控制器管理那些Pod matchLabels: # Labels匹配规则 app: counter-pod matchExpressions: # Expressions匹配规则 - key: app operator: In values: - counter-pod template: # 模板,当副本数量不足时,会根据下面的模板创建Pod模板 metadata: labels: app: counter-pod spec: restartPolicy: Never # 重启策略只能设置为Never或OnFailure containers: - name: counter image: busybox:1.30 command: ["/bin/sh","-c","for i in 9 8 7 6 5 4 3 2 1;do echo $i;sleep 20;done"]

创建job#

Copy
cat > pc-job.yaml << EOF apiVersion: batch/v1 kind: Job metadata: name: name namespace: dev spec: # 是否使用标签选择器 manualSelector: true selector: matchLabels: app: counter-pod # pod模板 template: metadata: labels: app: counter-pod spec: # 配置容器 containers: - name: counter image: busybox:1.30 command: [ "/bin/sh","-c","for i in 9 8 7 6 5 4 3 2 1;do echo $i;sleep 3;done" ] # 由于是一次性任务因此不需要重启 restartPolicy: Never EOF # 创建 [root@master k8s]# kubectl create -f pc-job.yaml # 查看 [root@master k8s]# kubectl get pod -n dev -w

image-20211025100015283

Copy
# 查看job [root@master k8s]# kubectl get job -n dev -w

image-20211025100056745### Cronjob

概述#

CronJob控制器以Job控制器为其管控对象,并借助它管理Pod资源对象,Job控制器定义的作业任务在其控制器资源创建之后便会立即执行,但CronJob可以以类似Linux操作系统的周期性任务作业计划的方式控制器运行时间点及重复运行的方式,换言之,CronJob可以在特定的时间点反复去执行Job任务。

cj

资源清单#

Copy
apiVersion: batch/v1beta1 # 版本号 kind: CronJob # 类型 metadata: # 元数据 name: # 名称 namespace: #命名空间 labels: controller: cronjob spec: # 详情描述 schedule: # cron格式的作业调度运行时间点,用于控制任务任务时间执行 concurrencyPolicy: # 并发执行策略 failedJobsHistoryLimit: # 为失败的任务执行保留的历史记录数,默认为1 successfulJobsHistoryLimit: # 为成功的任务执行保留的历史记录数,默认为3 jobTemplate: # job控制器模板,用于为cronjob控制器生成job对象,下面其实就是job的定义 metadata: {} spec: completions: 1 # 指定Job需要成功运行Pod的总次数,默认为1 parallelism: 1 # 指定Job在任一时刻应该并发运行Pod的数量,默认为1 activeDeadlineSeconds: 30 # 指定Job可以运行的时间期限,超过时间还没结束,系统将会尝试进行终止 backoffLimit: 6 # 指定Job失败后进行重试的次数,默认为6 template: # 模板,当副本数量不足时,会根据下面的模板创建Pod模板 spec: restartPolicy: Never # 重启策略只能设置为Never或OnFailure containers: - name: counter image: busybox:1.30 command: [ "/bin/sh","-c","for i in 9 8 7 6 5 4 3 2 1;do echo $i;sleep 20;done" ]

concurrencyPolicy:并发执行策略

  • Allow:运行job并发执行(默认)
  • Forbid:禁止并发执行,如果上次任务没有执行完毕会跳过下一次任务
  • Replace:新的任务代替旧的任务

创建Cronjob#

Copy
# 创建cronjob cat > pc-cronjob.yaml << EOF apiVersion: batch/v1beta1 # 版本号 kind: CronJob # 类型 metadata: # 元数据 name: pc-cronjob # 名称 namespace: dev #命名空间 spec: # 详情描述 schedule: "*/1 * * * * " # cron格式的作业调度运行时间点,用于控制任务任务时间执行 jobTemplate: # job控制器模板,用于为cronjob控制器生成job对象,下面其实就是job的定义 metadata: {} spec: template: # 模板,当副本数量不足时,会根据下面的模板创建Pod模板 spec: restartPolicy: Never # 重启策略只能设置为Never或OnFailure containers: - name: counter image: busybox:1.30 command: [ "/bin/sh","-c","for i in 9 8 7 6 5 4 3 2 1;do echo $i;sleep 2;done" ] EOF [root@master k8s]# kubectl create -f pc-cronjob.yaml [root@master k8s]# kubectl get -n dev cj -o wide

image-20211026162918777

Copy
# 另起终端查看cronjob [root@master k8s]# kubectl get cronjob -n dev -w

image-20211026163135679

Copy
# 另起终端查看job [root@master k8s]# kubectl get job -n dev -w

image-20211026163026436

Copy
# 另起终端查看pod [root@master k8s]# kubectl get pod -n dev -w

image-20211026163105420### StatefulSet

概述#

  • 无状态应用

    • 认为pod都是一样的
    • 随意进行伸缩扩展
    • 不用考虑在那个node运行
    • 没有顺序要求
  • 有状态应用

    • 有顺序要求
    • pod是独立不一样的,保证pod启动顺序和唯一性
    • 需要考虑在哪个pod进行运行
    • 需要安装顺序进行伸缩和扩展
  • StatefulSet是Kubernetes提供的管理有状态应用的负载管理控制器。

  • StatefulSet部署需要HeadLinessService(无头服务)

使用HeadLinessService(无头服务)

  • 在使用Deployment的时候,每一个Pod名称是没有顺序的,是通过随机字符串拼凑而成的,因此此时的pod是无顺序的,但是在StatefulSet中要求pod是有序的每一个pod不能被随意取代,pod重建后pod名称保持不变
  • Pod的P是变化的,所以是以pod名称来识别,pod名称是pod唯一识别码,无头服务可以给每一个pod一个唯一的名称

创建StatefulSet#

Copy
cat > pc-stateful.yaml << EOF apiVersion: v1 kind: Service metadata: name: service-headliness namespace: dev spec: selector: app: nginx-pod clusterIP: None # 将clusterIP设置为None,即可创建headliness Service type: ClusterIP ports: - port: 80 # Service的端口 targetPort: 80 # Pod的端口 --- apiVersion: apps/v1 kind: StatefulSet metadata: name: pc-statefulset namespace: dev spec: replicas: 3 serviceName: service-headliness selector: matchLabels: app: nginx-pod template: metadata: labels: app: nginx-pod spec: containers: - name: nginx image: nginx:1.17.1 ports: - containerPort: 80 EOF [root@master k8s]# kubectl create -f pc-stateful.yaml [root@master k8s]# kubectl get statefulset pc-statefulset -n dev -o wide

image-20211027104849016

Copy
# 查看pod [root@master k8s]# kubectl get pod -n dev -o wide

image-20211027105426768

Deployment和StatefulSet的区别#

  • Deployment和StatefulSet的区别:Deployment没有唯一标识而StatefulSet有唯一标识。

  • StatefulSet的唯一标识是根据主机名+一定规则生成的。

  • StatefulSet的唯一标识是主机名.无头Service名称.命名空间.svc.cluster.local

StatefulSet的金丝雀发布#

Copy
updateStrategy: rollingUpdate: # 如果更新的策略是OnDelete,那么rollingUpdate就失效 partition: 2 # 表示从第2个分区开始更新,默认是0 type: RollingUpdate /OnDelete # 滚动更新

StatefulSet支持两种更新策略:OnDelete和RollingUpdate(默认),其中OnDelete表示删除之后才更新,RollingUpdate表示滚动更新

Copy
cat > pc-statefulset.yaml << EOF apiVersion: v1 kind: Service metadata: name: service-headliness namespace: dev spec: selector: app: nginx-pod clusterIP: None # 将clusterIP设置为None,即可创建headliness Service type: ClusterIP ports: - port: 80 # Service的端口 targetPort: 80 # Pod的端口 --- apiVersion: apps/v1 kind: StatefulSet metadata: name: pc-statefulset namespace: dev spec: replicas: 3 serviceName: service-headliness selector: matchLabels: app: nginx-pod template: metadata: labels: app: nginx-pod spec: containers: - name: nginx image: nginx:1.17.1 ports: - containerPort: 80 updateStrategy: rollingUpdate: partition: 0 type: RollingUpdate EOF [root@master k8s]# kubectl apply -f pc-stateful.yaml # 修改镜像 [root@master k8s]# kubectl set image -n dev statefulset pc-statefulset nginx=nginx:1.17.2

image-20211027111401761

posted @   SR丶  阅读(2757)  评论(0编辑  收藏  举报
编辑推荐:
· SQL Server 2025 AI相关能力初探
· Linux系列:如何用 C#调用 C方法造成内存泄露
· AI与.NET技术实操系列(二):开始使用ML.NET
· 记一次.NET内存居高不下排查解决与启示
· 探究高空视频全景AR技术的实现原理
阅读排行:
· 阿里最新开源QwQ-32B,效果媲美deepseek-r1满血版,部署成本又又又降低了!
· SQL Server 2025 AI相关能力初探
· AI编程工具终极对决:字节Trae VS Cursor,谁才是开发者新宠?
· 开源Multi-agent AI智能体框架aevatar.ai,欢迎大家贡献代码
· Manus重磅发布:全球首款通用AI代理技术深度解析与实战指南
点击右上角即可分享
微信分享提示
CONTENTS