k8s之Pod基础概念
1. 资源限制
Pod是kubernetes中最小的资源管理组件,Pod也是最小化运行容器化应用的资源对象。一个Pod代表着集群中运行的一个进程。kubernetes中其他大多数组件都是围绕着Pod来进行支撑和扩展Pod功能的,例如,用于管理Pod运行的StatefulSet和Deployment等控制器对象,用于暴露Pod应用的Service和Ingress对象,为Pod提供存储的PersistentVolume存储资源对象等。
2. Pod的两种使用方式
● 一个Pod中运行一个容器。“每个Pod中一个容器”的模式是最常见的用法;在这种使用方式中,你可以把Pod想象成是单个容器的封装,kubernetes管理的是Pod而不是直接管理容器。
● 在一个Pod中同时运行多个容器。一个Pod中也可以同时封装几个需要紧密耦合互相协作的容器,它们之间共享资源。这些在同一个Pod中的容器可以互相协作成为一个service单位,比如一个容器共享文件,另一个“sidecar”容器来更新这些文件。Pod将这些容器的存储资源作为一个实体来管理。
3. Pod资源共享
一个Pod下的容器必须运行于同一节点上。现代容器技术建议一个容器只运行一个进程,该进程在容器中PID命令空间中的进程号为1,可直接接收并处理信号,进程终止时容器生命周期也就结束了。
若想在容器内运行多个进程,需要有一个类似Linux操作系统init进程的管控类进程,以树状结构完成多进程的生命周期管理。运行于各自容器内的进程无法直接完成网络通信,这是由于容器间的隔离机制导致,k8s中的Pod资源抽象正是解决此类问题,Pod对象是一组容器的集合,这些容器共享Network、UTS及IPC命令空间,因此具有相同的域名、主机名和网络接口,并可通过IPC直接通信。
namespace | 功能说明 |
---|---|
MNT Namespace | 提供磁盘挂载点和文件系统的隔离能力 |
IPC Namespace | 提供进程间通信的隔离能力 |
NET Namespace | 提供网络隔离能力 |
UTS Namespace | 提供主机名隔离能力 |
PID Namespace | 提供进程隔离能力 |
User Namespace | 提供用户隔离能力 |
4. 底层容器Pause
Pod资源中针对各容器提供网络命令空间等共享机制的是底层基础容器pause,基础容器(也可称为父容器)pause就是为了管理Pod容器间的共享操作,这个父容器需要能够准确地知道如何去创建共享运行环境的容器,还能管理这些容器的生命周期。为了实现这个父容器的构想,kubernetes中,用pause容器来作为一个Pod中所有容器的父容器。这个pause容器有两个核心的功能,一是它提供整个Pod的Linux命名空间的基础。二来启用PID命名空间,它在每个Pod中都作为PID为1进程(init进程),并回收僵尸进程。
4.1 Pause共享资源
4.1.1 网络
每个Pod都会被分配一个唯一的IP地址。Pod中的所有容器共享网络空间,包括IP地址和端口。Pod内部的容器可以使用localhost互相通信。Pod中的容器与外界通信时,必须分配共享网络资源(例如使用宿主机的端口映射)。
4.1.2 存储
可以Pod指定多个共享的Volume。Pod中的所有容器都可以访问共享的Volume。Volume也可以用来持久化Pod中的存储资源,以防容器重启后文件丢失。
4.1.3 总结
每个Pod都有一个特殊的被称为“基础容器”的Pause容器。Pause容器对应的镜像属于Kubernetes平台的一部分,除了Pause容器,每个Pod还包含一个或者多个紧密相关的用户应用容器。
4.2 Pause主要功能
kubernetes中的pause容器主要为每个容器提供以下功能:
● 在pod中担任Linux命名空间(如网络命令空间)共享的基础;
● 启用PID命名空间,开启init进程。
4.3 Pod与Pause结构的设计初衷
● 原因一:在一组容器作为一个单元的情况下,难以对整体的容器简单地进行判断及有效地进行行动。比如,一个容器死亡了,此时是算整体挂了么?那么引入与业务无关的Pause容器作为Pod的基础容器,以它的状态代表着整个容器组的状态,这样就可以解决该问题。
● 原因二:Pod里的多个应用容器共享Pause容器的IP,共享Pause容器挂载的Volume,这样简化了应用容器之间的通信问题,也解决了容器之间的文件共享问题。
5. Pod容器的分类
5.1 基础容器(infrastructure container)
● 维护整个 Pod 网络和存储空间
● node节点中操作
● 启动一个容器时,k8s会自动启动一个基础容器
cat /opt/kubernetes/cfg/kubelet | |
...... | |
--pod-infra-container-image=registry.cn-hangzhou.aliyuncs.com/google-containers/pause-amd64:3.0" | |
//每次创建 Pod 时候就会创建,运行的每一个容器都有一个 pause-amd64 的基础容器自动会运行,对于用户是透明的 | |
docker ps -a | |
registry.cn-hangzhou.aliyuncs.com/google-containers/pause-amd64:3.0 "/pause" |
5.2 初始化容器(initcontainers)
//Init容器必须在应用程序容器启动之前运行完成,而应用程序容器是并行运行的,所以Init容器能够提供了一种简单的阻塞或延迟应用容器的启动的方法。
Init 容器与普通的容器非常像,除了以下两点:
●Init 容器总是运行到成功完成为止
●每个 Init 容器都必须在下一个 Init 容器启动之前成功完成启动和退出
如果 Pod 的 Init 容器失败,k8s 会不断地重启该 Pod,直到 Init 容器成功为止。然而,如果 Pod 对应的重启策略(restartPolicy)为 Never,它不会重新启动。
Init 的容器作用
因为init容器具有与应用容器分离的单独镜像,其启动相关代码具有如下优势:
● Init 容器可以包含一些安装过程中应用容器中不存在的实用工具或个性化代码。例如,没有必要仅为了在安装过程中使用类似 sed、 awk、 python 或 dig 这样的工具而去FROM 一个镜像来生成一个新的镜像。
● Init 容器可以安全地运行这些工具,避免这些工具导致应用镜像的安全性降低。
● 应用镜像的创建者和部署者可以各自独立工作,而没有必要联合构建一个单独的应用镜像。
● Init 容器能以不同于Pod内应用容器的文件系统视图运行。因此,Init容器可具有访问 Secrets 的权限,而应用容器不能够访问。
● 由于 Init 容器必须在应用容器启动之前运行完成,因此 Init 容器提供了一种机制来阻塞或延迟应用容器的启动,直到满足了一组先决条件。一旦前置条件满足,Pod内的所有的应用容器会并行启动。
5.3 应用容器(Maincontainer)
Init容器是串行启动的,而应用容器会在所有init容器完成并退出后并行启动。
5.4 官网示例
https://kubernetes.io/docs/concepts/workloads/pods/init-containers/
6. 操作示例
6.1 编写myapp.yaml
[root@master ~]# mkdir /opt/test | |
[root@master ~]# cd !$ | |
cd /opt/test | |
[root@master test]# vim myapp.yaml | |
apiVersion: v1 | |
kind: Pod | |
metadata: | |
name: myapp-pod | |
labels: | |
app: myapp | |
spec: | |
containers: | |
- name: myapp-container | |
image: busybox:1.28 | |
command: ['sh','-c','echo The app is running! && sleep 3600'] | |
initContainers: | |
- name: init-myservice | |
image: busybox:1.28 | |
command: ['sh','-c','until nslookup myservice;do echo waiting for myservice; sleep2; done;'] | |
- name: init-mydb | |
image: busybox:1.28 | |
command: ['sh','-c','until nslookup mydb; do echo waiting for mydb; sleep 2; done;'] |
这个例子是定义了一个具有 2 个 Init 容器的简单 Pod。 第一个等待 myservice 启动, 第二个等待 mydb 启动。 一旦这两个 Init容器都启动完成,Pod 将启动 spec 中的应用容器。
6.2 创建myapp.yaml配置资源
kubectl apply -f myapp.yaml
[root@master test]# kubectl apply -f myapp.yaml | |
pod/myapp-pod created | |
[root@master test]# kubectl get pod | |
NAME READY STATUS RESTARTS AGE | |
myapp-pod 0/1 Init:0/2 0 80s |
发现该pod会一直处于Init:0/2的状态
6.3 查看pod创建过程
kubectl describe pod myapp-pod
[ | |
...... | |
Events: | |
Type Reason Age From Message | |
---- ------ ---- ---- ------- | |
Normal Scheduled 9m42s default-scheduler Successfully assigned default/myapp-pod to node01 | |
Normal Pulling 9m42s kubelet, node01 Pulling image "busybox:1.28" | |
Normal Pulled 9m25s kubelet, node01 Successfully pulled image "busybox:1.28" | |
Normal Created 9m25s kubelet, node01 Created container init-myservice | |
Normal Started 9m25s kubelet, node01 Started container init-myservice |
发现开启init-myservice容器后,创建步骤停滞,查看init-myservice日志进一步查明原因
6.4 查看pod日志
kubectl logs myapp-pod -c init-myservice
[root@master test]# kubectl logs myapp-pod -c init-myservice | |
nslookup: can't resolve 'myservice' | |
waiting for myservice | |
sh: sleep2: not found | |
Server: 10.1.0.10 | |
Address 1: 10.1.0.10 kube-dns.kube-system.svc.cluster.local |
发现问题,服务器未能找到myservice域名,所以无法跳出循环
6.5 编写myservice.yaml
[root@master test]# vim myservice.yaml | |
apiVersion: v1 | |
kind: Service | |
metadata: | |
name: myservice | |
spec: | |
ports: | |
- protocol: TCP | |
port: 80 | |
targetPort: 1111 |
6.6 创建myservice.yaml配置资源
kubectl create -f myservice.yaml
[root@master test]# kubectl create -f myservice.yaml | |
service/myservice created | |
[root@master test]# kubectl get svc,pod | |
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE | |
service/kubernetes ClusterIP 10.1.0.1 <none> 443/TCP 2d1h | |
service/myservice ClusterIP 10.1.217.88 <none> 80/TCP 23s | |
NAME READY STATUS RESTARTS AGE | |
pod/myapp-pod 0/1 Init:1/2 1 18m |
myservice生成后,发现myapp-pod状态变为Init:1/2且再次停滞,停滞原因与上述相同
6.7 编写mydb.yaml
[root@master test]# vim mydb.yaml | |
apiVersion: v1 | |
kind: Service | |
metadata: | |
name: mydb | |
spec: | |
ports: | |
- protocol: TCP | |
port: 80 | |
targetPort: 2222 |
6.8 查看pod以及service列表
kubectl get svc,pod
[root@master test]# kubectl get svc,pod | |
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE | |
service/kubernetes ClusterIP 10.1.0.1 <none> 443/TCP 2d1h | |
service/mydb ClusterIP 10.1.58.109 <none> 80/TCP 26s | |
service/myservice ClusterIP 10.1.217.88 <none> 80/TCP 6m20s | |
NAME READY STATUS RESTARTS AGE | |
pod/myapp-pod 1/1 Running 0 23m |
在生成mydb-service后,myapp-pod成功创建
6.9 查看myapp-pod创建全过程
kubectl describe pod myapp-pod
[ | |
...... | |
Events: | |
Type Reason Age From Message | |
---- ------ ---- ---- ------- | |
Normal Scheduled 37m default-scheduler Successfully assigned default/myapp-pod to node01 | |
Normal Pulling 37m kubelet, node01 Pulling image "busybox:1.28" | |
Normal Pulled 37m kubelet, node01 Successfully pulled image "busybox:1.28" | |
Normal Created 19m (x2 over 37m) kubelet, node01 Created container init-myservice | |
Normal Started 19m (x2 over 37m) kubelet, node01 Started container init-myservice | |
Normal Pulled 19m kubelet, node01 Container image "busybox:1.28" already present on machine | |
Normal Pulled 19m kubelet, node01 Container image "busybox:1.28" already present on machine | |
Normal Created 19m kubelet, node01 Created container init-mydb | |
Normal Started 19m kubelet, node01 Started container init-mydb | |
Normal Pulled 13m kubelet, node01 Container image "busybox:1.28" already present on machine | |
Normal Created 13m kubelet, node01 Created container myapp-container | |
Normal Started 13m kubelet, node01 Started container myapp-container |
创建过程中第一次停滞,是init-myservice容器启动后,未能发现myservice域名,无法得到解析,因此陷入循环。
第二次停滞,是init-mydb容器启动后,未能发现,mydb域名,无法得到解析,因此再次陷入循环中。
在上述两个init容器成功并退出后,myapp-pod才开始创建,否则pod无法创建。
6.10 特别说明
● 在Pod启动过程中,Init容器会按顺序在网络和数据卷初始化之后启动。每个容器必须在下一个容器启动之前成功退出。
● 如果由于运行时或失败退出,将导致容器启动失败,它会根据Pod的restartPolicy指定的策略进行重试。然而,如果Pod的restartPolicy设置为Always,Init容器失败时会使用RestartPolicy策略。
● 在所有的Init容器没有成功之前,Pod将不会变成Ready状态。Init容器的端口将不会在Service中进行聚集。正在初始化中的Pod处于Pending状态,但应该会将Initializing状态设置为true。
● 如果Pod重启,所有Init容器必须重新执行。
● 对Init容器spec的修改被限制在容器image字段,修改其他字段都不会生效。更改Init容器的image字段,等价于重启该Pod。
● Init容器具有应用容器的所有字段。除了readinessProbe,因为Init容器无法定义不同于完成(completion)的就绪(readiness)之外的其他状态。这会在验证过程中强制执行。
● 在Pod中的每个app和Init容器的名称必须唯一;与任何其它容器共享同一个名称,会在验证时抛出错误。
7. 镜像拉取策略(image PullPolicy)
Pod 的核心是运行容器,必须指定容器引擎,比如 Docker,启动容器时,需要拉取镜像,k8s 的镜像拉取策略可以由用户指定:
● IfNotPresent:在镜像已经存在的情况下,kubelet 将不再去拉取镜像,仅当本地缺失时才从仓库中拉取,默认的镜像拉取策略
● Always:每次创建 Pod 都会重新拉取一次镜像;
● Never:Pod 不会主动拉取这个镜像,仅使用本地镜像。
注意:对于标签为“:latest”的镜像文件,其默认的镜像获取策略即为“Always”;而对于其他标签的镜像,其默认策略则为“IfNotPresent”。
7.1 官方示例
https://kubernetes.io/docs/concepts/containers/images
创建使用私有镜像的 Pod 来验证
kubectl apply -f - <<EOF | |
apiVersion: v1 | |
kind: Pod | |
metadata: | |
name: private-image-test-1 | |
spec: | |
containers: | |
image: $PRIVATE_IMAGE_NAME | |
imagePullPolicy: Always | |
command: [ "echo", "SUCCESS" ] | |
EOF |
输出类似于
pod/private-image-test-1 created
如果一些顺利,那么一段时间后你可以执行
kubectl logs private-image-test-1
然后可以看到SUCCESS
如果你怀疑命令失败了,可以运行
kubectl describe pods/private-image-test-1 | grep 'Failed'
如果命令确实失败了,输出类似于
Fri, 26 Jun 2015 15:36:13 -0700 Fri, 26 Jun 2015 15:39:13 -0700 19 {kubelet node-i2hq} spec.containers{uses-private-image} failed Failed to pull image "user/privaterepo:v1": Error: image user/privaterepo:v1 not found
必须确保集群中所有节点的 .docker/config.json 文件内容相同。 否则,Pod 会能在一些节点上正常运行而无法在另一些节点上启动。 例如,如果使用节点自动扩缩,那么每个实例模板都需要包含 .docker/config.json, 或者挂载一个包含该文件的驱动器。
在 .docker/config.json 中配置了私有仓库密钥后,所有 Pod 都将能读取私有仓库中的镜像。
7.2 不指定版本号,查看默认拉取策略
7.2.1 不指定版本号创建pod
kubectl run nginx-test1 --image=nginx
[root@master test]# kubectl run nginx-test1 --image=nginx | |
kubectl run --generator=deployment/apps.v1 is DEPRECATED and will be removed in a future version. Use kubectl run --generator=run-pod/v1 or kubectl create instead. | |
deployment.apps/nginx-test1 created |
7.2.2 查看默认拉取策略
kubectl edit pod nginx-test1-7c4c56845c-hndnk
[root@master test]# kubectl get pod | |
NAME READY STATUS RESTARTS AGE | |
nginx-test1-7c4c56845c-hndnk 1/1 Running 0 75s | |
[root@master test]# kubectl edit pod nginx-test1-7c4c56845c-hndnk | |
...... | |
spec: | |
containers: | |
- image: nginx | |
imagePullPolicy: Always | |
#不指定版本号,即使用缺省值latest最新版本,默认拉取策略为Always | |
name: nginx-test1 | |
...... |
7.2.3 查看创建过程
kubectl describe pod nginx-test1
...... | |
Events: | |
Type Reason Age From Message | |
Normal Scheduled 5m35s default-scheduler Successfully assigned default/nginx-test1-7c4c56845c-hndnk to node01 | |
Normal Pulling 5m34s kubelet, node01 Pulling image "nginx" | |
Normal Pulled 5m19s kubelet, node01 Successfully pulled image "nginx" | |
Normal Created 5m19s kubelet, node01 Created container nginx-test1 | |
Normal Started 5m19s kubelet, node01 Started container nginx-test1 |
由于拉取策略为Always,因此不管本地有没有对应镜像,kubelet都会前往公有/私有仓库下载最新版本应用
7.3 测试案例(非循环命令)
7.3.1 创建测试案例nginx-test1.yaml
[root@master test]# vim nginx-test1.yaml | |
apiVersion: v1 | |
kind: Pod | |
metadata: | |
name: nginx-test1 | |
spec: | |
containers: | |
- name: nginx | |
image: nginx | |
imagePullPolicy: Always | |
command: [ "echo","SUCCESS" ] |
7.3.2 生成nginx-test1配置资源
kubectl apply -f nginx-test1.yaml
[root@master test]# kubectl apply -f nginx-test1.yaml | |
pod/nginx-test1 created |
7.3.3 查看pod状态
kubectl get pod -o wide
[root@master test]# kubectl get pod -o wide | |
NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES | |
nginx-test1 0/1 CrashLoopBackOff 1 51s 10.244.1.48 node01 <none> <none> |
该pod状态为CrashLoopBackOff,说明pod进入了异常循环状态
原因是 echo 执行完进程终止,容器生命周期也就结束了
7.3.4 查看创建过程
kubectl describe pod nginx-test1
...... | |
Events: | |
Type Reason Age From Message | |
Normal Scheduled 3m54s default-scheduler Successfully assigned default/nginx-test1 to node01 | |
Normal Created 2m8s (x4 over 3m38s) kubelet, node01 Created container nginx | |
Normal Started 2m8s (x4 over 3m38s) kubelet, node01 Started container nginx | |
Warning BackOff 100s (x7 over 3m21s) kubelet, node01 Back-off restarting failed container | |
Normal Pulling 86s (x5 over 3m53s) kubelet, node01 Pulling image "nginx" | |
Normal Pulled 71s (x5 over 3m38s) kubelet, node01 Successfully pulled image "nginx" |
可以发现 Pod 中的容器在生命周期结束后,由于 Pod 的重启策略为 Always,容器再次重启了,并且又重新开始拉取镜像
7.3.5 修改nginx-test1.yaml
[root@master test]# vim nginx-test1.yaml | |
apiVersion: v1 | |
kind: Pod | |
metadata: | |
name: nginx-test1 | |
spec: | |
containers: | |
- name: nginx | |
##指定nginx版本为1.14 | |
image: nginx:1.14 | |
imagePullPolicy: Always | |
##注释掉命令 | |
#command: [ "echo","SUCCESS" ] |
7.3.6 生成新的nginx-tets1.yaml配置资源
删除原有的资源
kubectl delete -f nginx-test1.yaml
[root@master test]# kubectl delete -f nginx-test1.yaml | |
pod "nginx-test1" deleted |
生成新的资源
kubectl apply -f nginx-test1.yaml
[root@master test]# kubectl apply -f nginx-test1.yaml | |
pod/nginx-test1 created |
7.3.7 查看pod状态
kubectl get pod -o wide
[root@master test]# kubectl get pod -o wide | |
NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES | |
nginx-test1 1/1 Running 0 50s 10.244.1.49 node01 <none> <none> |
pod创建成功
7.3.8 查看pod的应用版本
curl -I 10.244.1.49
[root@master test]# curl -I 10.244.1.49 | |
HTTP/1.1 200 OK | |
Server: nginx/1.14.2 | |
#版本重设为1.14.2 | |
Date: Thu, 04 Nov 2021 15:04:43 GMT | |
Content-Type: text/html | |
Content-Length: 612 | |
Last-Modified: Tue, 04 Dec 2018 14:44:49 GMT | |
Connection: keep-alive | |
ETag: "5c0692e1-264" | |
Accept-Ranges: bytes |
7.4 测试案例(循环命令)
7.4.1 修改nginx-test1.yaml
[root@master test]# vim nginx-test1.yaml | |
apiVersion: v1 | |
kind: Pod | |
metadata: | |
name: nginx-test1 | |
spec: | |
containers: | |
- name: nginx | |
#修改镜像版本为最新版本 | |
image: nginx | |
#设置镜像拉取策略为IfNotPresent | |
imagePullPolicy: IfNotPresent | |
#设置循环命令,使得pod不会自动关闭 | |
command: [ "sh","while true;do echo SUCCESS;done;" ] |
7.4.2 生成新的nginx-tets1.yaml配置资源
删除原有的资源
kubectl delete -f nginx-test1.yaml
[root@master test]# kubectl delete -f nginx-test1.yaml | |
pod "nginx-test1" deleted |
生成新的资源
kubectl apply -f nginx-test1.yaml
[root@master test]# kubectl apply -f nginx-test1.yaml | |
pod/nginx-test1 created |
7.4.2 查看pod状态
kubectl get pod -o wide
[root@master test]# kubectl get pod -o wide | |
NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES | |
nginx-test1 0/1 CrashLoopBackOff 3 67s 10.244.1.50 node01 <none> <none> |
再次进入异常循环状态
7.4.3 查看创建过程
kubectl describe pod nginx-test1
[root@master test]# kubectl describe pod nginx-test1 | |
...... | |
Events: | |
Type Reason Age From Message | |
---- ------ ---- ---- ------- | |
Normal Scheduled 2m59s default-scheduler Successfully assigned default/nginx-test1 to node01 | |
Normal Pulled 95s (x5 over 2m59s) kubelet, node01 Container image "nginx" already present on machine | |
Normal Created 95s (x5 over 2m59s) kubelet, node01 Created container nginx | |
Normal Started 95s (x5 over 2m59s) kubelet, node01 Started container nginx | |
Warning BackOff 70s (x10 over 2m57s) kubelet, node01 Back-off restarting failed container |
发现错误发生在command步骤
7.4.4 查看pod日志
kubectl logs nginx-test1
[root@master test]# kubectl logs nginx-test1 | |
sh: 0: Can't open while true;do echo SUCCESS;done; |
发现是命令错误
7.4.5 再次修改nginx-test1.yaml
[root@master test]# vim nginx-test1.yaml | |
apiVersion: v1 | |
kind: Pod | |
metadata: | |
name: nginx-test1 | |
spec: | |
containers: | |
- name: nginx | |
image: nginx | |
imagePullPolicy: IfNotPresent | |
#发现缺少了“-c”选项,添加后保存退出 | |
command: [ "sh","-c","while true;do echo SUCCESS;done;" ] |
7.4.6 再次生成新的nginx-tets1.yaml配置资源
删除原有的资源
kubectl delete -f nginx-test1.yaml
[root@master test]# kubectl delete -f nginx-test1.yaml | |
pod "nginx-test1" deleted |
生成新的资源
kubectl apply -f nginx-test1.yaml
[root@master test]# kubectl apply -f nginx-test1.yaml | |
pod/nginx-test1 created |
7.4.7 再次查看pod状态
kubectl get pod -o wide
[root@master test]# kubectl get pod -o wide | |
NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES | |
nginx-test1 1/1 Running 0 7s 10.244.1.51 node01 <none> <none> |
pod运行成功
7.4.8 查看创建过程
kubectl describe pod nginx-test1
[root@master test]# kubectl describe pod nginx-test1 | |
...... | |
Events: | |
Type Reason Age From Message | |
---- ------ ---- ---- ------- | |
Normal Scheduled 108s default-scheduler Successfully assigned default/nginx-test1 to node01 | |
Normal Pulled 107s kubelet, node01 Container image "nginx" already present on machine | |
Normal Created 107s kubelet, node01 Created container nginx | |
Normal Started 107s kubelet, node01 Started container nginx |
由于镜像拉取策略设定的是IfNotPresent,因此kubelet会先检查本地镜像仓库,如果有对应版本镜像就直接使用,没有的话才会前往镜像仓库拉取。
7.4.9 查看pod日志
kubectl describe pod nginx-test1 | grep "Image"
[root@master test]# kubectl describe pod nginx-test1 | grep "Image" | |
Image: nginx | |
Image ID: docker-pullable://nginx@sha256:644a70516a26004c97d0d85c7fe1d0c3a67ea8ab7ddf4aff193d9f301670cf36 |
8. harbor登录凭据操作
8.1 部署harbor
部署步骤详见往期博客
8.2 查看登录凭证
cat /root/.docker/config.json | base64 -w 0
node01
[root@node01 ~]# cat /root/.docker/config.json | base64 -w 0 | |
#base64 -w 0:进行 base64 加密并禁止自动换行 | |
ewoJImF1dGhzIjogewoJCSJodWIudGVzdC5jb20iOiB7CgkJCSJhdXRoIjogIllXUnRhVzQ2U0dGeVltOXlNVEl6TkRVPSIKCQl9Cgl9Cn0= |
8.3 创建harbor登录凭据资源清单
master
[root@master ~]# vim harbor-pull-secret.yaml | |
apiVersion: v1 | |
kind: Secret | |
metadata: | |
name: harbor-pull-secret | |
data: | |
.dockerconfigjson: ewoJImF1dGhzIjogewoJCSJodWIudGVzdC5jb20iOiB7CgkJCSJhdXRoIjogIllXUnRhVzQ2U0dGeVltOXlNVEl6TkRVPSIKCQl9Cgl9Cn0= | |
#复制粘贴上述查看的登陆凭据 | |
type: kubernetes.io/dockerconfigjson |
8.4 创建secret资源
kubectl create -f harbor-pull-secret.yaml
master
[root@master test]# kubectl create -f harbor-pull-secret.yaml | |
secret/harbor-pull-secret created |
8.5 查看secret资源
kubectl get secret
master
[root@master test]# kubectl get secret | |
NAME TYPE DATA AGE | |
default-token-7lsdx kubernetes.io/service-account-token 3 3d5h | |
harbor-pull-secret kubernetes.io/dockerconfigjson 1 2m3s |
8.6 创建资源从harbor中下载镜像
master
[root@master test]# vim nginx-deployment.yaml | |
apiVersion: extensions/v1beta1 | |
kind: Deployment | |
metadata: | |
name: my-nginx | |
spec: | |
replicas: 2 | |
template: | |
metadata: | |
labels: | |
app: my-nginx | |
spec: | |
#添加拉取secret资源选项 | |
imagePullSecrets: | |
#指定secret资源名称 | |
- name: harbor-pull-secret | |
containers: | |
- name: my-nginx | |
#指定harbor中的镜像名 | |
image: hub.test.com/library/nginx:v1 | |
ports: | |
- containerPort: 80 | |
apiVersion: v1 | |
kind: Service | |
metadata: | |
name: my-nginx | |
spec: | |
type: NodePort | |
ports: | |
- port: 8080 | |
targetPort: 8080 | |
nodePort: 11111 | |
selector: | |
app: my-nginx |
8.7 删除之前在node节点下载的nginx镜像
node01
docker rmi -f hub.test.com/library/nginx:v1
[root@node01 ~]# docker images | |
REPOSITORY TAG IMAGE ID CREATED SIZE | |
nginx latest 87a94228f133 3 weeks ago 133MB | |
hub.test.com/library/nginx v1 87a94228f133 3 weeks ago 133MB | |
k8s.gcr.io/kube-apiserver v1.15.1 68c3eb07bfc3 2 years ago 207MB | |
k8s.gcr.io/kube-proxy v1.15.1 89a062da739d 2 years ago 82.4MB | |
registry.aliyuncs.com/google_containers/kube-proxy v1.15.1 89a062da739d 2 years ago 82.4MB | |
k8s.gcr.io/kube-controller-manager v1.15.1 d75082f1d121 2 years ago 159MB | |
k8s.gcr.io/kube-scheduler v1.15.1 b0b3c4c404da 2 years ago 81.1MB | |
nginx 1.15 53f3fd8007f7 2 years ago 109MB | |
nginx 1.14 295c7be07902 2 years ago 109MB | |
wl/flannel v0.11.0-amd64 ff281650a721 2 years ago 52.6MB | |
k8s.gcr.io/coredns 1.3.1 eb516548c180 2 years ago 40.3MB | |
registry.aliyuncs.com/google_containers/coredns 1.3.1 eb516548c180 2 years ago 40.3MB | |
wl/kubernetes-dashboard-amd64 v1.10.1 f9aed6605b81 2 years ago 122MB | |
k8s.gcr.io/etcd 3.3.10 2c4adeb21b4f 2 years ago 258MB | |
nginx 1.15.4 bc26f1ed35cf 3 years ago 109MB | |
busybox 1.28 8c811b4aec35 3 years ago 1.15MB | |
k8s.gcr.io/pause 3.1 da86e6ba6ca1 3 years ago 742kB | |
registry.aliyuncs.com/google_containers/pause 3.1 da86e6ba6ca1 3 years ago 742kB | |
[root@node01 ~]# docker rmi -f hub.test.com/library/nginx:v1 | |
Untagged: hub.test.com/library/nginx:v1 | |
Untagged: hub.test.com/library/nginx@sha256:7250923ba3543110040462388756ef099331822c6172a050b12c7a38361ea46f |
8.8 创建资源
master
kubectl apply -f nginx-deployment.yaml
[root@master test]# kubectl apply -f nginx-deployment.yaml | |
deployment.extensions/my-nginx created | |
service/my-nginx created |
8.9 查看pod信息
master
kubectl get pods -o wide
[root@master test]# kubectl get pods -o wide | |
NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES | |
my-nginx-74f9bccc8c-5z9nv 1/1 Running 0 49s 10.244.2.30 node02 <none> <none> | |
my-nginx-74f9bccc8c-txkg9 1/1 Running 0 49s 10.244.1.52 node01 <none> <none> |
8.10 查看pod描述信息
kubectl describe pod my-nginx-74f9bccc8c-txkg9
[root@master test]# kubectl describe pod my-nginx-74f9bccc8c-txkg9 | |
...... | |
Events: | |
Type Reason Age From Message | |
---- ------ ---- ---- ------- | |
Normal Scheduled 4m38s default-scheduler Successfully assigned default/my-nginx-74f9bccc8c-txkg9 to node01 | |
#镜像从harbor仓库中拉取而来 | |
Normal Pulling 4m37s kubelet, node01 Pulling image "hub.test.com/library/nginx:v1" | |
Normal Pulled 4m37s kubelet, node01 Successfully pulled image "hub.test.com/library/nginx:v1" | |
Normal Created 4m37s kubelet, node01 Created container my-nginx | |
Normal Started 4m37s kubelet, node01 Started container my-nginx |
kubectl describe pod my-nginx-74f9bccc8c-txkg9 | grep "Image:"
[root | |
Image: hub.test.com/library/nginx:v1 |