k8s--pod 基本配置、镜像拉取策略、启动命令、端口设置、资源配额
pod 配置
这节主要来研究 pod.spec.containers 属性,这也是 pod 配置中最为关键的一项配置
[root@dce-10-6-215-215 ~]# kubectl explain pod.spec.containers KIND: Pod VERSION: v1 RESOURCE: containers <[]Object> # 数组,代表可以有多个容器 FIELDS: name <string> # 容器名称 image <string> # 容器需要的镜像地址 imagePullPolicy <string> # 镜像拉取策略 command <[]string> # 容器的启动命令列表,如不指定,使用打包时使用的启动命令 args <[]string> # 容器的启动命令需要的参数列表 env <[]Object> # 容器环境变量的配置 ports <[]Object> # 容器需要暴露的端口号列表 resources <Object> # 资源限制和资源请求的设置
基本配置 name、image
创建 pod-base.yaml 文件,内容如下:
apiVersion: v1 kind: Pod metadata: name: pod-base namespace: zouzou # 命名空间 labels: user: heima spec: containers: - name: nginx image: nginx:1.14 - name: busybox image: busybox:1.30
上面定义了一个比较简单 Pod 的配置,里面有两个容器:
- nginx:用 1.14 版本的 nginx 镜像创建
- busybox:用 1.30 版本的 busybox 镜像创建,(busybox是一个小巧的linux命令集合)
# 创建 pod [root@dce-10-6-215-215 ~]# kubectl apply -f pod-base.yaml pod/pod-base created # 查看 pod # READY 1/2 : 表示当前 Pod 中有2个容器,其中 1 个准备就绪,1 个未就绪 # RESTARTS : 重启次数,因为有 1 个容器故障了,Pod 一直在重启试图恢复它 [root@dce-10-6-215-215 ~]# kubectl get pod -n zouzou NAME READY STATUS RESTARTS AGE pod-base 1/2 CrashLoopBackOff 3 108s
可以通过describe查看内部的详情,通过下面的命令看 Events 事件,可以看到 nginx 镜像是正常启动的,busybox 镜像是失败的,为什么会失败,后面在说
kubectl delete pod nginx nginx1 nginx2 -n zouzou
镜像拉取策略 imagePullPolicy
在我们创建 pod 的时候,总是要使用到镜像,那是使用我们本地的镜像呢?还是使用官网的镜像呢?如果本地没有了怎么处理呢?这里就涉及到了镜像的拉取策略
创建 pod-imagepullpolicy.yaml 文件,内容如下
apiVersion: v1 kind: Pod metadata: name: pod-imagepullpolicy namespace: zouzou spec: containers: - name: nginx image: nginx:1.14 imagePullPolicy: Never # 用于设置镜像拉取策略 - name: busybox image: busybox:1.30
imagePullPolicy:用于设置镜像拉取策略,k8s 支持配置三种拉取策略
- Always:总是从远程仓库拉取镜像
- ifNotPresent:本地有则使用本地镜像,本地没有则从远程仓库拉取镜像
- Never:只使用本地镜像,从不去远程仓库拉取,本地没有就报错
默认值说明:
- 如果镜像 tag 为具体版本号,默认策略是:ifNotPresent
- 如果镜像 tag 为:latest,默认策略是 Always,因为不知道本地的是不是最新的镜像
启动命令 command
在前面的案例中,一直有一个问题没有解决,就是我们的 busybox 容器一直没有成功运行,那么到底是什么原因导致这个容器的故障呢?
原来 busybox 并不是一个程序,而是类似于一个工具类的集合,k8s 集群启动管理后,它会自动关闭,解决方法就是让其一直在运行,这就用到了 command 配置
修改 pod-base.yaml 文件,内容如下
apiVersion: v1 kind: Pod metadata: name: pod-base namespace: zouzou # 命名空间 labels: user: heima spec: containers: - name: nginx image: nginx:1.14 - name: busybox image: busybox:1.30 command: ["/bin/sh","-c","touch /tmp/hello.txt;while true;do /bin/echo $(date +%T) >> /tmp/hello.txt; sleep 3; done;"] # command 命令
command,用于在 pod 中的容器初始化完毕之后运行一个命令
- "/bin/sh","-c", 使用sh执行命令
- touch /tmp/hello.txt; 创建一个/tmp/hello.txt 文件
- while true;do /bin/echo $(date +%T) >> /tmp/hello.txt; sleep 3; done; 每隔3秒向文件中写入当前时间,在容器里面
先删除之前的 pod 在创建
# 删除之前的 pod [root@dce-10-6-215-215 ~]# kubectl delete -f pod-base.yaml pod "pod-base" deleted # 重新创建 pod [root@dce-10-6-215-215 ~]# kubectl apply -f pod-base.yaml pod/pod-base created # 查看 pod,两个容器都正常运行了 [root@dce-10-6-215-215 ~]# kubectl get pod -n zouzou NAME READY STATUS RESTARTS AGE pod-base 2/2 Running 0 7s
上面我们运行了 busybox 容器,每隔三秒将当前的时间写入到文件里,那我们怎么查看呢?
时间是写入到容器的 /tmp/hello.txt 文件里的,所以我们要看的话需要进入到容器里面,使用下面命令进入到容器里面
# -it 交互式进入,pod-base 是 pod 的名字,-n zouzou 命名空间下,-c busybox 进入到 busybox 这个容器里面,要跟 yaml 里写的 name 一样 kubectl exec -it pod-base -n zouzou -c busybox /bin/sh
除了 command 参数外,还有一个 args 参数
通过上面发现 command 已经可以完成启动命令和传递参数的功能,为什么这里还要提供一个 args 选项,用于传递参数呢?这其实跟 docker 有点关系,kubernetes 中的 command、args 两项其实是实现覆盖 Dockerfile 中 ENTRYPOINT 的功能。
- 如果 command 和 args 均没有写,那么用 Dockerfile 的配置。
- 如果 command 写了,但 args 没有写,那么 Dockerfile 默认的配置会被忽略,执行输入的 command
- 如果 command 没写,但 args 写了,那么 Dockerfile 中配置的 ENTRYPOINT 的命令会被执行,使用当前 args 的参数
- 如果 command 和 args 都写了,那么 Dockerfile 的配置被忽略,执行 command 并追加上 args 参数
环境变量 env
创建 pod-env.yaml 文件,内容如下:
apiVersion: v1 kind: Pod metadata: name: pod-env namespace: zouzou spec: containers: - name: busybox image: busybox:1.30 command: ["/bin/sh","-c","while true;do /bin/echo $(date +%T);sleep 60; done;"] env: # 设置环境变量列表,设置了两个 username=admin 和 password=123456 - name: "username" value: "admin" - name: "password" value: "123456"
env,环境变量,用于给 pod 中的容器设置环境变量
# 创建Pod [root@dce-10-6-215-215 ~]# kubectl create -f pod-env.yaml pod/pod-env created # 进入容器,输出环境变量 [root@dce-10-6-215-215 ~]# kubectl exec pod-env -n dev -c busybox -it /bin/sh / # echo $username admin / # echo $password 123456
这种方式不是很推荐,推荐将这些配置单独存储在配置文件中,这种方式将在后面介绍
端口设置 ports
首先看下 ports 支持的子选项
[root@dce-10-6-215-215 ~]# kubectl explain pod.spec.containers.ports KIND: Pod VERSION: v1 RESOURCE: ports <[]Object> FIELDS: name <string> # 端口名称,如果指定,必须保证name在pod中是唯一的 containerPort<integer> # 容器要监听的端口(0<x<65536),一个 pod 里有多个容器 hostPort <integer> # 容器要在主机上公开的端口,也就是 worker 的机器,如果设置,主机上只能运行容器的一个副本(一般省略) hostIP <string> # 要将外部端口绑定到的主机 IP,也就是 worker 的机器(一般省略) protocol <string> # 端口协议。必须是UDP、TCP或SCTP。默认为“TCP”。
接下来,编写一个测试案例,创建 pod-ports.yaml
apiVersion: v1 kind: Pod metadata: name: pod-base namespace: zouzou labels: user: heima spec: containers: - name: nginx image: nginx:1.14 ports: # 设置容器暴露的端口列表 - name: nginx-port containerPort: 80 protocol: TCP
创建 pod
# 创建 pod kubectl apply -f pod-ports.yaml #查看详细信息 kubectl get pod -n zouzou -o yaml
但这样外网还是访问不了的,如果外网要访问,就要用 service 了
资源配额 resources
也就是我们 Pod 在进行调度的时候,可以对调度的资源进行限制,例如我们限制 Pod 调度时使用的资源是 2C4G,那么在调度对应的 node 节点时,只会占用对应的资源,对于不满足资源的节点,将不会进行调度
容器中的程序要运行,肯定是要占用一定资源的,比如 cpu 和内存等,如果不对某个容器的资源做限制,那么它就可能吃掉大量资源,导致其它容器无法运行。针对这种情况,kubernetes 提供了对内存和 cpu 的资源进行配额的机制,这种机制主要通过 resources 选项实现,他有两个子选项:
- limits:用于限制运行时容器的最大占用资源,当容器占用资源超过 limits 时会被终止,并进行重启
- requests :用于设置容器需要的最小资源,如果环境资源不够,容器将无法启动
可以通过上面两个选项设置资源的上下限。
接下来,编写一个测试案例,创建 pod-resources.yaml
apiVersion: v1 kind: Pod metadata: name: pod-resources namespace: zouzou spec: containers: - name: nginx image: nginx:1.14 resources: # 资源配额 limits: # 限制资源(上限) cpu: "2" # CPU限制,单位是core数 memory: "10Gi" # 内存限制 requests: # 请求资源(下限) cpu: "1" # CPU限制,单位是core数 memory: "10Mi" # 内存限制
在这对 cpu 和 memory 的单位做一个说明:
- cpu:core 数,可以为整数或小数
- memory: 内存大小,可以使用 Gi、Mi、G、M 等形式
# 运行Pod [root@dce-10-6-215-215 ~]# kubectl create -f pod-resources.yaml pod/pod-resources created # 查看发现 pod 运行正常 [root@dce-10-6-215-215 ~]# kubectl get pod pod-resources -n zouzou NAME READY STATUS RESTARTS AGE pod-resources 1/1 Running 0 39s # 接下来,停止 Pod [root@dce-10-6-215-215 ~]# kubectl delete -f pod-resources.yaml pod "pod-resources" deleted # 编辑 pod,修改 resources.requests.memory 的值为 10Gi [root@dce-10-6-215-215 ~]# vim pod-resources.yaml # 再次启动 pod [root@dce-10-6-215-215 ~]# kubectl create -f pod-resources.yaml pod/pod-resources created # 查看 Pod 状态,发现 Pod 启动失败 [root@dce-10-6-215-215 ~]# kubectl get pod pod-resources -n zouzou -o wide NAME READY STATUS RESTARTS AGE pod-resources 0/1 Pending 0 20s # 查看pod详情会发现,如下提示 [root@dce-10-6-215-215 ~]# kubectl describe pod pod-resources -n zouzou ...... Warning FailedScheduling 35s default-scheduler 0/3 nodes are available: 1 node(s) had taint {node-role.kubernetes.io/master: }, that the pod didn't tolerate, 2 Insufficient memory.(内存不足)