5.Pod控制器—ReplicaSet&Deployment

Pod控制器——ReplicaSet&Deployment

Pod控制器及其功用

Pod控制器是用于实现管理pod的中间层,确保pod资源符合预期的状态,pod的资源出现故障时,会尝试 进行重启,当根据重启策略无效,则会重新新建pod的资源。

pod控制器有多种类型:

ReplicaSet: 代用户创建指定数量的pod副本数量,确保pod副本数量符合预期状态,并且支持滚动式自动扩容和缩容功能。

ReplicaSet主要三个组件组成:

  1. 用户期望的pod副本数量
  2. 标签选择器,判断哪个pod归自己管理
  3. 当现存的pod数量不足,会根据pod资源模板进行新建

帮助用户管理无状态的pod资源,精确反应用户定义的目标数量,但是RelicaSet不是直接使用的控制器,而是使用Deployment。

Deployment:工作在ReplicaSet之上,用于管理无状态应用,目前来说最好的控制器。支持滚动更新和回滚功能,还提供声明式配置。

DaemonSet:用于确保集群中的每一个节点只运行特定的pod副本,通常用于实现系统级后台任务。比如ELK服务

特性:服务是无状态的、服务必须是守护进程

Job:只要完成就立即退出,不需要重启或重建。

Cronjob:周期性任务控制,不需要持续后台运行,

StatefulSet:管理有状态应用

TPR:(third party resource)1.7以后就不支持了、第三方资源

CDR:(custom defined resource) 1.8+以后、用户自定义资源

ReplicaSet控制器

ReplicationController用来确保容器应用的副本数始终保持在用户定义的副本数,即如果有容器异常退出,会自动创建新的Pod来替代;而如果异常多出来的容器也会自动回收。

在新版本的Kubernetes中建议使用ReplicaSet来取代ReplicationController。ReplicaSet跟ReplicationController没有本质的不同,只是名字不一样,并且ReplicaSet支持集合式的selector。

虽然ReplicaSet可以独立使用,但一般还是建议使用 Deployment 来自动管理ReplicaSet,这样就无需担心跟其他机制的不兼容问题(比如ReplicaSet不支持rolling-update但Deployment支持)。

RC、Rs和Deployment区别

控制器
Replication 副本控制器 selector = !=
ReplicaSet 副本控制集 选择器selector支持 in notin
Deployment 比RS更高一级,有rs功能还包含滚动升级,回滚等

ReplicaSet示例:

  • 命令行查看ReplicaSet清单定义规则
[root@k8s-master ~]# kubectl explain rs
[root@k8s-master ~]# kubectl explain rs.spec
[root@k8s-master ~]# kubectl explain rs.spec.template
  • 新建ReplicaSet示例
[root@k8s-master ~]# vim rs-demo.yaml
apiVersion: apps/v1  			#api版本定义
kind: ReplicaSet  			#定义资源类型为ReplicaSet
metadata:  				#元数据定义
  name: myapp
  namespace: default
spec:					#ReplicaSet的规格定义
  replicas: 2				#定义副本数量为2个
  selector:				#标签选择器,定义匹配pod的标签
    matchLabels:
      app: myapp
      release: canary
  template:				#pod的模板定义
    metadata:				#pod的元数据定义
      name: myapp-pod		  	#自定义pod的名称 
      labels:				#定义pod的标签,需要和上面定义的标签一致,也可以多出其他标签
        app: myapp
        release: canary
        environment: qa
    spec:  			        #pod的规格定义
      containers:  			#容器定义
      - name: myapp-container  	#容器名称
        image: ikubernetes/myapp:v1  	#容器镜像
        ports:  			#暴露端口
          - name: http
            containerPort: 80
  • 创建ReplicaSet定义的pod
[root@k8s-master ~]# kubectl create -f rs-demo.yaml
[root@k8s-master ~]# kubectl get pods  #获取pod信息
[root@k8s-master ~]# kubectl describe pods myapp-*** #查看pod详细信息
  • 修改pod的副本数量
[root@k8s-master ~]# kubectl edit rs myapp
replicas: 5
[root@k8s-master ~]# kubectl get rs -o wide
  • 修改pod的镜像版本
[root@k8s-master ~]# kubectl edit rs myapp
image: ikubernetes/myapp:v2  
[root@k8s-master ~]# kubectl delete pods myapp-***  
#修改了pod镜像版本,pod需要重建才能达到最新版本
[root@k8s-master ~]# kubectl create -f rs-demo.yaml

Deployment控制器

Deployment为Pod和Replica Set(下一代Replication Controller)提供声明式更新。

Deployment是建构在rs之上的,可以控制多个rs滚动式自定义,自控制的更新;同时在实现自动更新时还能实现控制更新节奏和更新逻辑

只需要在 Deployment 中描述想要的目标状态是什么,Deployment controller 就会帮您将 Pod 和ReplicaSet 的实际状态改变到您的目标状态。也可以定义一个全新的 Deployment 来创建 ReplicaSet 或者删除已有的 Deployment 并创建一个新的来替换。

典型的用例如下:

  1. 使用Deployment来创建ReplicaSet。ReplicaSet在后台创建pod。检查启动状态,看它是成功还是失败。
  2. 然后,通过更新Deployment的PodTemplateSpec字段来声明Pod的新状态。这会创建一个新的ReplicaSet,Deployment会按照控制的速率将pod从旧的ReplicaSet移动到新的ReplicaSet中。
  3. 如果当前状态不稳定,回滚到之前的Deployment revision。每次回滚都会更新Deployment的revision。
  4. 扩容Deployment以满足更高的负载。
  5. 暂停Deployment来应用PodTemplateSpec的多个修复,然后恢复上线。
  6. 根据Deployment 的状态判断上线是否hang住了。
  7. 清除旧的不必要的 ReplicaSet。

Deployment解析

在所有的 Kubernetes 配置中,Deployment 也需要apiVersionkindmetadata这些配置项

root@k8s-master ~]# kubectl explain deployment
KIND:     Deployment
VERSION:  apps/v1


DESCRIPTION:
     Deployment enables declarative updates for Pods and ReplicaSets.

FIELDS:
   apiVersion	<string>
     APIVersion defines the versioned schema of this representation of an
     object. Servers should convert recognized schemas to the latest internal
     value, and may reject unrecognized values. More info:
     https://git.k8s.io/community/contributors/devel/sig-architecture/api-conventions.md#resources

   kind	<string>
     Kind is a string value representing the REST resource this object
     represents. Servers may infer this from the endpoint the client submits
     requests to. Cannot be updated. In CamelCase. More info:
     https://git.k8s.io/community/contributors/devel/sig-architecture/api-conventions.md#types-kinds

   metadata	<Object>
     Standard object metadata.

   spec	<Object>
     Specification of the desired behavior of the Deployment.

   status	<Object>
     Most recently observed status of the Deployment.

spec字段

使用kubectl explain deployment.spec查看具体Deployment spec的配置选项,解析如下:

KIND:     Deployment
VERSION:  apps/v1

RESOURCE: spec <Object>

DESCRIPTION:
     Specification of the desired behavior of the Deployment.

     DeploymentSpec is the specification of the desired behavior of the
     Deployment.

FIELDS:
   minReadySeconds	<integer>
     Minimum number of seconds for which a newly created pod should be ready
     without any of its container crashing, for it to be considered available.
     Defaults to 0 (pod will be considered available as soon as it is ready)

   paused	<boolean>
     Indicates that the deployment is paused.

   progressDeadlineSeconds	<integer>
     The maximum time in seconds for a deployment to make progress before it is
     considered to be failed. The deployment controller will continue to process
     failed deployments and a condition with a ProgressDeadlineExceeded reason
     will be surfaced in the deployment status. Note that progress will not be
     estimated during the time a deployment is paused. Defaults to 600s.

   replicas	<integer>
     Number of desired pods. This is a pointer to distinguish between explicit
     zero and not specified. Defaults to 1.

   revisionHistoryLimit	<integer>
     The number of old ReplicaSets to retain to allow rollback. This is a
     pointer to distinguish between explicit zero and not specified. Defaults to
     10.

   selector	<Object> -required-
     Label selector for pods. Existing ReplicaSets whose pods are selected by
     this will be the ones affected by this deployment. It must match the pod
     template's labels.

   strategy	<Object>
     The deployment strategy to use to replace existing pods with new ones.

   template	<Object> -required-
     Template describes the pods that will be created.

Replicas(副本数量):
.spec.replicas是可以选字段,指定期望的pod数量,默认是1。

Selector(选择器):
.spec.selector是可选字段,用来指定 label selector ,圈定Deployment管理的pod范围。如果被指定, .spec.selector 必须匹配 .spec.template.metadata.labels,否则它将被API拒绝。如果 .spec.selector 没有被指定, .spec.selector.matchLabels 默认是.spec.template.metadata.labels

  在Pod的template跟.spec.template不同或者数量超过了.spec.replicas规定的数量的情况下,Deployment会杀掉label跟selector不同的Pod。

Pod Template(Pod模板):
.spec.template是 .spec中唯一要求的字段。

.spec.template是 pod template. 它跟 Pod有一模一样的schema,除了它是嵌套的并且不需要apiVersion 和 kind字段。

另外为了划分Pod的范围,Deployment中的pod template必须指定适当的label(不要跟其他controller重复了,参考selector)和适当的重启策略。

.spec.template.spec.restartPolicy可以设置为 Always , 如果不指定的话这就是默认配置。

strategy(更新策略):
.spec.strategy指定新的Pod替换旧的Pod的策略。 .spec.strategy.type 可以是"Recreate"或者是

"RollingUpdate"。"RollingUpdate"是默认值

Recreate: 重建式更新,就是删一个建一个。类似于ReplicaSet的更新方式,即首先删除现有的Pod对象,然后由控制器基于新模板重新创建新版本资源对象。

rollingUpdate:滚动更新,简单定义 更新期间pod最多有几个等。可以指定maxUnavailablemaxSurge 来控制 rolling update 进程。

minReadySeconds:

Kubernetes在等待设置的时间后才进行升级;如果没有设置该值,Kubernetes会假设该容器启动起来后就提供服务了;在某些极端情况下可能会造成服务不正常运行

maxSurge:.spec.strategy.rollingUpdate.maxSurge 是可选配置项,用来指定可以超过期望的Pod数量的最大个数。该值可以是一个绝对值(例如5)或者是期望的Pod数量的百分比(例如10%)。当MaxUnavailable为0时该值不可以为0。通过百分比计算的绝对值向上取整。默认值是1。

例如,该值设置成30%,启动rolling update后新的ReplicatSet将会立即扩容,新老Pod的总数不能超过期望的Pod数量的130%。旧的Pod被杀掉后,新的ReplicaSet将继续扩容,旧的ReplicaSet会进一步缩容,确保在升级的所有时刻所有的Pod数量和不会超过期望Pod数量的130%。

maxUnavailable:.spec.strategy.rollingUpdate.maxUnavailable 是可选配置项,用来指定在升级过程中不可用Pod的最大数量。该值可以是一个绝对值(例如5),也可以是期望Pod数量的百分比(例如10%)。通过计算百分比的绝对值向下取整。 如果.spec.strategy.rollingUpdate.maxSurge 为0时,这个值不可以为0。默认值是1。

例如,该值设置成30%,启动rolling update后旧的ReplicatSet将会立即缩容到期望的Pod数量的70%。新的Pod ready后,随着新的ReplicaSet的扩容,旧的ReplicaSet会进一步缩容确保在升级的所有时刻可以用的Pod数量至少是期望Pod数量的70%。

P.S :maxSurge和maxUnavailable的属性值不可同时为0,否则Pod对象的副本数量在符合用户期望的数量后无法做出合理变动以进行更新操作。

在配置时,用户还可以使用Deployment控制器的spec.minReadySeconds属性来控制应用升级的速度。新旧更替过程中,新创建的Pod对象一旦成功响应就绪探测即被认为是可用状态,然后进行下一轮的替换。而spec.minReadySeconds能够定义在新的Pod对象创建后至少需要等待多长的时间才能会被认为其就绪,在该段时间内,更新操作会被阻塞。

evisionHistoryLimit(历史版本记录):
Deployment revision history存储在它控制的ReplicaSets中。默认保存记录10个  

.spec.revisionHistoryLimit是一个可选配置项,用来指定可以保留的旧的ReplicaSet数量。该理想值取决于新Deployment的频率和稳定性。如果该值没有设置的话,默认所有旧的Replicaset或会被保留,将资源存储在etcd中,是用kubectl get rs查看输出。每个Deployment的该配置都保存在ReplicaSet中,然而,一旦删除的旧的RepelicaSet,Deployment就无法再回退到那个revison了。

  如果将该值设置为0,所有具有0个replica的ReplicaSet都会被删除。在这种情况下,新的Deployment rollout无法撤销,因为revision history都被清理掉了。

PS:为了保存版本升级的历史,需要再创建Deployment对象时,在命令中使用"--record"选项

rollbackTo:      

.spec.rollbackTo 是一个可以选配置项,用来配置Deployment回退的配置。设置该参数将触发回退操作,每次回退完成后,该值就会被清除。

revision:.spec.rollbackTo.revision是一个可选配置项,用来指定回退到的revision。默认是0,意味着回退到上一个revision。

progressDeadlineSeconds:  

.spec.progressDeadlineSeconds 是可选配置项,用来指定在系统报告Deployment的failed progressing

表现为resource的状态中type=ProgressingStatus=FalseReason=ProgressDeadlineExceeded前可以等待的Deployment进行的秒数。Deployment controller会继续重试该Deployment。未来,在实现了自动回滚后, deployment controller在观察到这种状态时就会自动回滚。

如果设置该参数,该值必须大于 .spec.minReadySeconds

paused:

.spec.paused是可以可选配置项,boolean值。用来指定暂停和恢复Deployment。Paused和没有paused的Deployment之间的唯一区别就是,所有对paused deployment中的PodTemplateSpec的修改都不会触发新的rollout。Deployment被创建之后默认是非paused。

Deployment创建

使用YAML部署一个nginx

Deployment 的YAML需要通过标签与Pod关联。

[root@k8s-master ~]# vim deploy-demo.yaml
apiVersion: apps/v1
kind: Deployment
metadata:
  name: web
spec:
  replicas: 2
  selector:
    matchLabels:
      app: web
      release: canary
  template:
    metadata:
      labels:
        app: web
        release: canary
    spec:
      containers:
      - name: myapp
        image: ikubernetes/myapp:v1
        ports:
        - name: http
          containerPort: 80

创建

kubectl apply -f deploy-demo.yaml

查看

]# kubectl get deploy
NAME   READY   UP-TO-DATE   AVAILABLE   AGE
web    0/2     2            0           15s

输出结果表明我们希望的repalica数是2(根据deployment中的.spec.replicas配置)当前replica数( .status.replicas)是0, 最新的replica数(.status.updatedReplicas)是0,可用的replica数(.status.availableReplicas)是0。过几秒后再执行get命令,将获得如下输出:

]# kubectl get deploy
NAME   READY   UP-TO-DATE   AVAILABLE   AGE
web    2/2     2            2           112s

我们可以看到Deployment已经创建了2个 replica,所有的 replica 都已经是最新的了(包含最新的pod template),可用的(根据Deployment中的.spec.minReadySeconds声明,处于已就绪状态的pod的最少个数)。执行kubectl get rskubectl get pods会显示Replica Set(RS)和Pod已创建。

]# kubectl get rs
NAME             DESIRED   CURRENT   READY   AGE
web-7cbcbcc94d   2         2         0       55s

ReplicaSet 的名字总是<Deployment的名字>----<pod template的hash值>

]# kubectl get pods --show-labels
NAME                   READY   STATUS    RESTARTS   AGE     LABELS
web-7cbcbcc94d-8trvq   1/1     Running   0          6m46s   app=web,pod-template-hash=7cbcbcc94d,release=canary
web-7cbcbcc94d-9t7f8   1/1     Running   0          6m47s   app=web,pod-template-hash=7cbcbcc94d,release=canary

刚创建的Replica Set将保证总是有2个web的pod 存在。

注意: 在 Deployment 中的 selector 指定正确的 pod template label(在该示例中是 app = myapp,release=canary),不要跟其他的 controller 的 selector 中指定的 pod template label 搞混了(包括 Deployment、Replica Set、Replication Controller 等)。

上面示例输出中的 pod label 里的 pod-template-hash label。当 Deployment 创建或者接管 ReplicaSet 时,Deployment controller 会自动为 Pod 添加 pod-template-hash label。这样做的目的是防止 Deployment 的子ReplicaSet 的 pod 名字重复。通过将 ReplicaSet 的PodTemplate 进行哈希散列,使用生成的哈希值作为 label 的值,并添加到 ReplicaSet selector 里、 pod template label 和 ReplicaSet 管理中的 Pod 上。

Deployment更新升级

修改YAML,指定新镜像

apiVersion: apps/v1
kind: Deployment
metadata:
  name: web
spec:
  replicas: 2
  selector:
    matchLabels:
      app: web
      release: canary
  template:
    metadata:
      labels:
        app: web
        release: canary
    spec:
      containers:
      - name: myapp
        image: ikubernetes/myapp:v2
        ports:
        - name: http
          containerPort: 80
          
kubectl apply -f deploy-demo.yaml

升级过程(我们看到,是停止一台,升级一台的这种循环。)

kubectl get pods -l app=web -w
NAME                   READY   STATUS    RESTARTS   AGE
web-7cbcbcc94d-8trvq   1/1     Running   0          26m
web-7cbcbcc94d-9t7f8   1/1     Running   0          26m
web-7c95ff84fc-6fm5c   0/1     Pending   0          0s
web-7c95ff84fc-6fm5c   0/1     Pending   0          1s
web-7c95ff84fc-6fm5c   0/1     ContainerCreating   0          3s
web-7c95ff84fc-6fm5c   1/1     Running             0          25s
web-7cbcbcc94d-8trvq   1/1     Terminating         0          26m
web-7c95ff84fc-zhhm2   0/1     Pending             0          1s
web-7c95ff84fc-zhhm2   0/1     Pending             0          2s
web-7c95ff84fc-zhhm2   0/1     ContainerCreating   0          5s
web-7cbcbcc94d-8trvq   0/1     Terminating         0          26m
web-7cbcbcc94d-8trvq   0/1     Terminating         0          26m
web-7cbcbcc94d-8trvq   0/1     Terminating         0          26m
web-7c95ff84fc-zhhm2   1/1     Running             0          27s
web-7cbcbcc94d-9t7f8   1/1     Terminating         0          27m
web-7cbcbcc94d-9t7f8   0/1     Terminating         0          27m
web-7cbcbcc94d-9t7f8   0/1     Terminating         0          27m
web-7cbcbcc94d-9t7f8   0/1     Terminating         0          27m

查看rs状态、可以看到原rs作为备份,而现在启用新rs

kubectl get rs -o wide
NAME             DESIRED   CURRENT   READY   AGE   CONTAINERS   IMAGES                 SELECTOR
web-7c95ff84fc   2         2         2       77s   myapp        ikubernetes/myapp:v2   app=web,pod-template-hash=7c95ff84fc,release=canary
web-7cbcbcc94d   0         0         0       27m   myapp        ikubernetes/myapp:v1   app=web,pod-template-hash=7cbcbcc94d,release=canary

通过set 命令直接修改image的版本进行升级,如下:

kubectl set image deployment/web myapp=ikubernetes/myapp:v2

修改滚动更新策略

编辑.spec.strategy.rollingUpdate字段

]# vim deploy-demo.yaml
apiVersion: apps/v1
kind: Deployment
metadata:
  name: web
spec:
  replicas: 2
  selector:
    matchLabels:
      app: web
      release: canary
  strategy:
    type: RollingUpdate
    rollingUpdate:
      maxSurge: 1
      maxUnavailable: 0
  template:
    metadata:
      labels:
        app: web
        release: canary
    spec:
      containers:
      - name: myapp
        image: ikubernetes/myapp:v2
        ports:
        - name: http
          containerPort: 80
]# kubectl apply -f deploy-demo.yaml

查看

]# kubectl describe deployment web
RollingUpdateStrategy:  0 max unavailable, 1 max surge

金丝雀发布

Deployment控制器支持自定义控制更新过程中的滚动节奏,如“暂停(pause)”或“继续(resume)”更新操作。比如等待第一批新的Pod资源创建完成后立即暂停更新过程,此时,仅存在一部分新版本的应用,主体部分还是旧的版本。然后,再筛选一小部分的用户请求路由到新版本的Pod应用,继续观察能否稳定地按期望的方式运行。确定没问题之后再继续完成余下的Pod资源滚动更新,否则立即回滚更新操作。这就是所谓的金丝雀发布(Canary Release)

更新deployment v3版本,并暂停deploymet

~]# kubectl set image deployment web myapp=ikubernetes/myapp:v3 && kubectl rollout pause deployment web

观察更新状态

~]# kubectl rollout status deployments web
Waiting for deployment "web" rollout to finish: 1 out of 2 new replicas have been updated...

监控更新过程,可以看到已经新增一个pod,但并未按照之前设定,删除旧pod;因为使用了pause暂停命令

~]# kubectl get pods -l app=web -w
NAME                   READY   STATUS    RESTARTS   AGE
web-66647944c8-h4nvz   1/1     Running   0          61s
web-7c95ff84fc-v9fb8   1/1     Running   0          3h39m
web-7c95ff84fc-vkg4f   1/1     Running   0          3h39m

确保更新pod无误时,继续更新

~]# kubectl rollout resume deploy web

查看pod状态

~]# kubectl get pods -l app=web -w
NAME                   READY   STATUS    RESTARTS   AGE
web-66647944c8-h4nvz   1/1     Running   0          61s
web-7c95ff84fc-v9fb8   1/1     Running   0          3h39m
web-7c95ff84fc-vkg4f   1/1     Running   0          3h39m
web-7c95ff84fc-vkg4f   1/1     Terminating   0          3h39m
web-66647944c8-c6877   0/1     Pending       0          1s
web-66647944c8-c6877   0/1     Pending       0          1s
web-66647944c8-c6877   0/1     ContainerCreating   0          3s
web-7c95ff84fc-vkg4f   0/1     Terminating         0          3h39m
web-7c95ff84fc-vkg4f   0/1     Terminating         0          3h40m
web-7c95ff84fc-vkg4f   0/1     Terminating         0          3h40m
web-66647944c8-c6877   1/1     Running             0          36s
web-7c95ff84fc-v9fb8   1/1     Terminating         0          3h40m
web-7c95ff84fc-v9fb8   0/1     Terminating         0          3h40m
web-7c95ff84fc-v9fb8   0/1     Terminating         0          3h40m
web-7c95ff84fc-v9fb8   0/1     Terminating         0          3h40m

查看最后更新状态

~]# kubectl rollout status deployments web
Waiting for deployment "web" rollout to finish: 1 out of 2 new replicas have been updated...
Waiting for deployment spec update to be observed...
Waiting for deployment spec update to be observed...
Waiting for deployment "web" rollout to finish: 1 out of 2 new replicas have been updated...
Waiting for deployment "web" rollout to finish: 1 out of 2 new replicas have been updated...
Waiting for deployment "web" rollout to finish: 1 old replicas are pending termination...
Waiting for deployment "web" rollout to finish: 1 old replicas are pending termination...
deployment "web" successfully rolled out

Deployment版本回退

默认情况下,kubernetes 会在系统中保存前两次的 Deployment 的 rollout 历史记录,以便可以随时回退(您可以修改revision history limit来更改保存的revision数)。

PS: 只要 Deployment 的 rollout 被触发就会创建一个 revision。也就是说当且仅当 Deployment 的 Pod template(如.spec.template)被更改,例如更新template 中的 label 和容器镜像时,就会创建出一个新的 revision。

其他的更新,比如扩容 Deployment 不会创建 revision——因此我们可以很方便的手动或者自动扩容。这意味着当您回退到历史 revision 时,只有 Deployment 中的 Pod template 部分才会回退。

检查deployment升级记录

]# kubectl rollout history deploy web
deployment.apps/web 
REVISION  CHANGE-CAUSE
1         <none>
2         <none>

这里在创建deployment时没有增加--record参数,所以并不能看到revision的变化。在创建 Deployment 的时候使用了--record参数可以记录命令,就可以方便的查看每次 revision 的变化。

查看单个revision 的详细信息:

]# kubectl rollout history deployment/web --revision=2
deployment.apps/web with revision #2
Pod Template:
  Labels:	app=web
	pod-template-hash=66647944c8
	release=canary
  Containers:
   myapp:
    Image:	ikubernetes/myapp:v3
    Port:	80/TCP
    Host Port:	0/TCP
    Environment:	<none>
    Mounts:	<none>
  Volumes:	<none>

回退历史版本,默认回退到上一个版本:

]# kubectl rollout undo deployment/web
deployment.apps/web rolled back

也可以使用 --revision参数指定某个历史版本:

]# kubectl rollout undo deployment/web --to-revision=3
deployment.apps/web rolled back

Deployment扩容&缩容

(1)使用以下命令扩容&缩容 Deployment:

]# kubectl scale deployment web --replicas 5

(2)直接修改yaml文件的方式进行扩容&缩容:

vim deploy-demo.yaml
修改.spec.replicas的值spec:  
replicas: 5
kubectl apply -f demo.yaml

(3)通过打补丁的方式进行扩容&缩容:

]# kubectl patch deployment web -p '{"spec":{"replicas":5}}'
]# kuebctl get pods
posted @ 2021-02-03 00:19  Gmiao  阅读(342)  评论(0编辑  收藏  举报