1) 部署环境

  • 部署节点 x1 : 运行这份 ansible 脚本的节点
  • etcd节点 x3 : 注意etcd集群必须是1,3,5,7...奇数个节点
  • master节点 x1 : 运行集群主要组件
  • node节点 x3 : 真正应用部署的节点,根据需要增加机器配置和节点数

2)下载docker

wget download.yunwei.edu/shell/docker.tar.gz
ls
tar zxvf docker.tar.gz
ls
cd docker/
ls
bash docker.sh

 

 3)设置免密登陆并且配置号域名解析服务

172.16.254.20 reg.yunwei.edu      #此域名解析是为了获取docker版ansible的资源地址
192.168.253.9 cicd            #一个部署,三个节点,node1同时又是master节点
192.168.253.14 node1
192.168.253.11 node2
192.168.253.10 node3

 

4)下载并运行docker版ansible

[root@cicd ~]# docker run -itd -v /etc/ansible:/etc/ansible -v /etc/kubernetes/:/etc/kubernetes/ -v /root/.kube:/root/.kube -v /usr/local/bin/:/usr/local/bin/ 1acb4fd5df5b  /bin/sh
WARNING: IPv4 forwarding is disabled. Networking will not work.

上述报错解决方法:

在下面文件内添加,然后重启netowrk

  systemctl restart network

[root@cicd ~]# cat /usr/lib/sysctl.d/00-system.conf

  net.ipv4.ip_forward=1

 

5)进入刚刚下载ansible的容器。

[root@cicd ~]# docker exec -it 36aac0dee157 /bin/sh
/ # ansible all -m ping 
 [WARNING]: Could not match supplied host pattern, ignoring: all

 [WARNING]: provided hosts list is empty, only localhost is available

 [WARNING]: No hosts matched, nothing to do

发现无法ping通,这是因为没有配置主机组以及取消配置文件中的host-key注释。

又因为我们宿主机与容器建立了目录映射,所以我们这里直接在宿主机之下做以下步骤

 

 

6)上传k8s的压缩包,然后解压,进入kubernetes目录。

wget http://download.yunwei.edu/shell/docker.tar.gz

[root@cicd kubernetes]# ls
bash ca.tar.gz harbor-offline-installer-v1.4.0.tgz image image.tar.gz     k8s197.tar.gz      kube-yunwei-197.tar.gz    scope.yaml sock-shop

 

7)解压kube-yunwei-197.tar.gz压缩包,并把解压后目录下面的内容全部移动到/etc/ansible/

   解压k8s197.tar.gz压缩包,并把解压后文件全部移动到/etc/ansible/bin/目录下

[root@cicd ansible]# ls
01.prepare.retry  02.etcd.yml    04.kube-master.yml  06.network.yml  ansible.cfg  example  manifests  tools
01.prepare.yml    03.docker.yml  05.kube-node.yml    99.clean.yml    bin          hosts    roles

   [root@cicd bin]# ls
   bridge cfssljson docker-containerd-ctr docker-proxy flannel kubectl loopback
   calicoctl docker docker-containerd-shim docker-runc host-local kubelet portmap
   cfssl docker-compose dockerd etcd kube-apiserver kube-proxy VERSION.md
   cfssl-certinfo docker-containerd docker-init etcdctl kube-controller-manager kube-scheduler

 

8)在/etc/ansible/目录下创建一个hosts文件,并将example目录下的样本文件复制到此文件中。

[deploy]
192.168.253.9      #部署节点ip

#etcd集群请提供如下NODE_NAME、NODE_IP变量,请注意etcd集群必须是1,3,5,7...奇数个节点
[etcd]
192.168.253.14 NODE_NAME=etcd1 NODE_IP="192.168.253.14"
192.168.253.11 NODE_NAME=etcd2 NODE_IP="192.168.253.11"
192.168.253.10 NODE_NAME=etcd3 NODE_IP="192.168.253.10"

[kube-master]
192.168.253.14 NODE_IP="192.168..253.14"

[kube-node]
192.168.253.14 NODE_IP="192.168.253.14"
192.168.253.11 NODE_IP="192.168.253.11"
192.168.253.10 NODE_IP="192.168.253.10"

[all:vars]
# ---------集群主要参数---------------
#集群部署模式:allinone, single-master, multi-master
DEPLOY_MODE=single-master

#集群 MASTER IP
MASTER_IP="192.168.253.14"

#集群 APISERVER
KUBE_APISERVER="https://192.168.253.14:6443"      #master节点ip

#TLS Bootstrapping 使用的 Token,使用 head -c 16 /dev/urandom | od -An -t x | tr -d ' ' 生成
BOOTSTRAP_TOKEN="d18f94b5fa585c7110f56803d925d2e7"

# 集群网络插件,目前支持calico和flannel
CLUSTER_NETWORK="calico"

# 部分calico相关配置,更全配置可以去roles/calico/templates/calico.yaml.j2自定义
# 设置 CALICO_IPV4POOL_IPIP=“off”,可以提高网络性能,条件限制详见 05.安装calico网络组件.md
CALICO_IPV4POOL_IPIP="always"
# 设置 calico-node使用的host IP,bgp邻居通过该地址建立,可手动指定端口"interface=eth0"或使用如下自动发现
IP_AUTODETECTION_METHOD="can-reach=113.5.5.5"

# 部分flannel配置,详见roles/flannel/templates/kube-flannel.yaml.j2
FLANNEL_BACKEND="vxlan"

# 服务网段 (Service CIDR),部署前路由不可达,部署后集群内使用 IP:Port 可达
SERVICE_CIDR="10.68.0.0/16"

# POD 网段 (Cluster CIDR),部署前路由不可达,**部署后**路由可达
CLUSTER_CIDR="172.20.0.0/16"

# 服务端口范围 (NodePort Range)
NODE_PORT_RANGE="20000-40000"

# kubernetes 服务 IP (预分配,一般是 SERVICE_CIDR 中第一个IP)
CLUSTER_KUBERNETES_SVC_IP="10.68.0.1"

# 集群 DNS 服务 IP (从 SERVICE_CIDR 中预分配)
CLUSTER_DNS_SVC_IP="10.68.0.2"

# 集群 DNS 域名
CLUSTER_DNS_DOMAIN="cluster.local."

# etcd 集群间通信的IP和端口, **根据实际 etcd 集群成员设置**
ETCD_NODES="etcd1=https://192.168.253.14:2380,etcd2=https://192.168.253.11:2380,etcd3=https://192.168.253.10:2380"

# etcd 集群服务地址列表, **根据实际 etcd 集群成员设置**
ETCD_ENDPOINTS="https://192.168.253.14:2379,https://192.168.253.11:2379,https://192.168.253.10:2379"

# 集群basic auth 使用的用户名和密码
BASIC_AUTH_USER="admin"
BASIC_AUTH_PASS="admin"

# ---------附加参数--------------------
#默认二进制文件目录
bin_dir="/usr/local/bin"      # /root改为/usr

#证书目录
ca_dir="/etc/kubernetes/ssl"

#部署目录,即 ansible 工作目录
base_dir="/etc/ansible"

 

9)关闭防火墙,重启docker

再次进入容器,cd到/etc/ansible查看

出现6个脚本文件以及其他若干个文件

[root@cicd ansible]# docker exec -it ad5e6744151e /bin/sh
/ # cd /etc/ansible/
/etc/ansible # ls
01.prepare.retry    05.kube-node.yml    example
01.prepare.yml      06.network.yml      hosts
02.etcd.yml         99.clean.yml        manifests
03.docker.yml       ansible.cfg         roles
04.kube-master.yml  bin                 tools

 

10)在容器内执行01-05脚本

/etc/ansible # ansible-playbook 01.prepare.yml 
/etc/ansible # ansible-playbook 02.etcd.yml
/etc/ansible # ansible-playbook 03.docker.yml
/etc/ansible # ansible-playbook 04.kube-master.yml
/etc/ansible # ansible-playbook 05.kube-node.yml

 

11) 部署节点另开一个会话。其他三个节点创建一个名为image的目录用于接收部署节点发送的镜像包。

  执行以下命令,然后将image目录下的所有镜像全部发送给node1.node2.node3。

[root@cicd ~]# cd kubernetes
[root@cicd kubernetes]# ls
bash  ca.tar.gz  harbor-offline-installer-v1.4.0.tgz  image  image.tar.gz  k8s197.tar.gz  kube-yunwei-197.tar.gz  scope.yaml  sock-shop
[root@cicd kubernetes]# cd image
[root@cicd image]# ls
bash-completion-2.1-6.el7.noarch.rpm  coredns-1.0.6.tar.gz  heapster-v1.5.1.tar  kubernetes-dashboard-amd64-v1.8.3.tar.gz
calico                                grafana-v4.4.3.tar    influxdb-v1.3.3.tar  pause-amd64-3.1.tar

 

12)node1节点进入到image目录,导入所有镜像

[root@node2 ~]# cd image/
[root@node2 image]# ls
bash-completion-2.1-6.el7.noarch.rpm  grafana-v4.4.3.tar
calico-cni-v2.0.5.tar                 heapster-v1.5.1.tar
calico-kube-controllers-v2.0.4.tar    influxdb-v1.3.3.tar
calico-node-v3.0.6.tar                kubernetes-dashboard-amd64-v1.8.3.tar.gz
coredns-1.0.6.tar.gz                  pause-amd64-3.1.tar
[root@node2 image]# for ls in `ls` ;do docker load -i $ls ;done

 

13)查看镜像是否导入成功

[root@node2 image]# docker images
REPOSITORY                                          TAG                 IMAGE ID            CREATED             SIZE
mariadb                                             latest              3ab4bbd66f97        8 hours ago         344MB
zabbix/zabbix-agent                                 latest              bc21cdfcc381        6 days ago          14.9MB
calico/node                                         v3.0.6              15f002a49ae8        14 months ago       248MB
calico/kube-controllers                             v2.0.4              f8e683e673ec        14 months ago       55.1MB
calico/cni                                          v2.0.5              b5e5532af766        14 months ago       69.1MB
coredns/coredns                                     1.0.6               d4b7466213fe        16 months ago       39.9MB
mirrorgooglecontainers/kubernetes-dashboard-amd64   v1.8.3              0c60bcf89900        16 months ago       102MB
mirrorgooglecontainers/heapster-amd64               v1.5.1              c41e77c31c91        16 months ago       75.3MB
mirrorgooglecontainers/pause-amd64                  3.1                 da86e6ba6ca1        18 months ago       742kB
mirrorgooglecontainers/heapster-influxdb-amd64      v1.3.3              577260d221db        21 months ago       12.5MB
mirrorgooglecontainers/heapster-grafana-amd64       v4.4.3              8cb3de219af7        21 months ago       152MB

其他两个节点操作相同。

 

14)在部署节点的容器内执行06脚本

/etc/ansible # ansible-playbook 06.network.yml 

 

15)进入manifests/coredns/目录下,执行

  kubeclt  create  -f  .

/etc/ansible # cd manifests/
/etc/ansible/manifests # ls
coredns    dashboard  efk        heapster   ingress    kubedns
/etc/ansible/manifests # cd coredns/
/etc/ansible/manifests/coredns # ls
coredns.yaml
/etc/ansible/manifests/coredns # kubectl create -f .
serviceaccount "coredns" created
clusterrole "system:coredns" created
clusterrolebinding "system:coredns" created
configmap "coredns" created
deployment "coredns" created
service "coredns" created

 

16)部署节点的宿主机界面执行:

 kubectl get node -o wide
[root@cicd image]# kubectl get node -o wide
NAME             STATUS                     ROLES     AGE       VERSION   EXTERNAL-IP   OS-IMAGE                KERNEL-VERSION          CONTAINER-RUNTIME
192.168.253.10   Ready                      <none>    10m       v1.9.7    <none>        CentOS Linux 7 (Core)   3.10.0-693.el7.x86_64   docker://18.3.0
192.168.253.11   Ready                      <none>    10m       v1.9.7    <none>        CentOS Linux 7 (Core)   3.10.0-693.el7.x86_64   docker://18.3.0
192.168.253.14   Ready,SchedulingDisabled   <none>    12m       v1.9.7    <none>        CentOS Linux 7 (Core)   3.10.0-693.el7.x86_64   docker://18.3.0

 

17)查看名称空间

  查看kube-system空间内的pod详情

[root@cicd image]# kubectl get ns
NAME          STATUS    AGE
default       Active    14m
kube-public   Active    14m
kube-system   Active    14m
[root@cicd image]# kubectl get pod -n kube-system -o wide
NAME                                       READY     STATUS    RESTARTS   AGE       IP               NODE
calico-kube-controllers-754c88ccc8-86rht   1/1       Running   0          4m        192.168.253.11   192.168.253.11
calico-node-cvhcn                          2/2       Running   0          4m        192.168.253.10   192.168.253.10
calico-node-j5d66                          2/2       Running   0          4m        192.168.253.14   192.168.253.14
calico-node-qfm66                          2/2       Running   0          4m        192.168.253.11   192.168.253.11
coredns-6ff7588dc6-mbg9x                   1/1       Running   0          2m        172.20.104.1     192.168.253.11
coredns-6ff7588dc6-vzvbt                   1/1       Running   0          2m        172.20.135.1     192.168.253.10

 

18)在不同节点上尝试ping通彼此节点的内部ip

[root@node1 image]# ping 172.20.135.1
PING 172.20.135.2 (172.20.135.2) 56(84) bytes of data.
64 bytes from 172.20.135.2: icmp_seq=1 ttl=63 time=0.813 ms
64 bytes from 172.20.135.2: icmp_seq=2 ttl=63 time=0.696 ms

如果ping通则证明k8s实验部署成功。

 

19)cd到dashboard目录下执行

kubectl create -f .
/etc/ansible/manifests # cd dashboard/
/etc/ansible/manifests/dashboard # ls
1.6.3                      kubernetes-dashboard.yaml  ui-read-rbac.yaml
admin-user-sa-rbac.yaml    ui-admin-rbac.yaml
/etc/ansible/manifests/dashboard # kubectl create -f .
serviceaccount "admin-user" created
clusterrolebinding "admin-user" created
secret "kubernetes-dashboard-certs" created
serviceaccount "kubernetes-dashboard" created
role "kubernetes-dashboard-minimal" created
rolebinding "kubernetes-dashboard-minimal" created
deployment "kubernetes-dashboard" created
service "kubernetes-dashboard" created
clusterrole "ui-admin" created
rolebinding "ui-admin-binding" created
clusterrole "ui-read" created
rolebinding "ui-read-binding" created

 

20)再次执行

kubectl get pod -n kube-system -o wide

发现多出一个容器
[root@cicd image]# kubectl get pod -n kube-system -o wide
NAME                                       READY     STATUS    RESTARTS   AGE       IP               NODE
calico-kube-controllers-754c88ccc8-86rht   1/1       Running   0          7m        192.168.253.11   192.168.253.11
calico-node-cvhcn                          2/2       Running   0          7m        192.168.253.10   192.168.253.10
calico-node-j5d66                          2/2       Running   0          7m        192.168.253.14   192.168.253.14
calico-node-qfm66                          2/2       Running   0          7m        192.168.253.11   192.168.253.11
coredns-6ff7588dc6-mbg9x                   1/1       Running   0          5m        172.20.104.1     192.168.253.11
coredns-6ff7588dc6-vzvbt                   1/1       Running   0          5m        172.20.135.1     192.168.253.10
kubernetes-dashboard-545b66db97-cbh9w      1/1       Running   0          1m        172.20.135.2     192.168.253.10

在node1节点ping172.168.135.2

[root@node1 image]# ping 172.20.135.2
PING 172.20.135.2 (172.20.135.2) 56(84) bytes of data.
64 bytes from 172.20.135.2: icmp_seq=1 ttl=63 time=0.813 ms
64 bytes from 172.20.135.2: icmp_seq=2 ttl=63 time=0.696 ms

 

如果能够ping通,执行以下命令

/etc/ansible/manifests/dashboard # kubectl cluster-info
Kubernetes master is running at https://192.168.253.14:6443
CoreDNS is running at https://192.168.253.14:6443/api/v1/namespaces/kube-system/services/coredns:dns/proxy
kubernetes-dashboard is running at https://192.168.253.14:6443/api/v1/namespaces/kube-system/services/https:kubernetes-dashboard:/proxy

 

21)复制加粗连接访问网页

登陆用户名和密码后,选中令牌,执行以下命令

[root@cicd image]# kubectl -n kube-system describe secret $(kubectl -n kube-system get secret|grep admin-user|awk '{print $1}')
Name:         admin-user-token-q46rv
Namespace:    kube-system
Labels:       <none>
Annotations:  kubernetes.io/service-account.name=admin-user
              kubernetes.io/service-account.uid=b31a5f5c-9283-11e9-a6e3-000c2966ee14

Type:  kubernetes.io/service-account-token

Data
====
ca.crt:     1359 bytes
namespace:  11 bytes
token:      eyJhbGciOiJSUzI1NiIsInR5cCI6IkpXVCJ9.eyJpc3MiOiJrdWJlcm5ldGVzL3NlcnZpY2VhY2NvdW50Iiwia3ViZXJuZXRlcy5pby9zZXJ2aWNlYWNjb3VudC9uYW1lc3BhY2UiOiJrdWJlLXN5c3RlbSIsImt1YmVybmV0ZXMuaW8vc2VydmljZWFjY291bnQvc2VjcmV0Lm5hbWUiOiJhZG1pbi11c2VyLXRva2VuLXE0NnJ2Iiwia3ViZXJuZXRlcy5pby9zZXJ2aWNlYWNjb3VudC9zZXJ2aWNlLWFjY291bnQubmFtZSI6ImFkbWluLXVzZXIiLCJrdWJlcm5ldGVzLmlvL3NlcnZpY2VhY2NvdW50L3NlcnZpY2UtYWNjb3VudC51aWQiOiJiMzFhNWY1Yy05MjgzLTExZTktYTZlMy0wMDBjMjk2NmVlMTQiLCJzdWIiOiJzeXN0ZW06c2VydmljZWFjY291bnQ6a3ViZS1zeXN0ZW06YWRtaW4tdXNlciJ9.O5gqGeUNlwUYYDSL2bSolvCUoGmWjipaiqwrfBCbCroQ2SanUdP0w3SbJ0Vhb1Ddv6QswC2HeaGeHV_ideoH03RalKlJoJmCIaz0OpbvWQ6KaeDKLHqBxGyT4S-AHncF908aHr84JfY6GVIfJJL7P68EzMrFpOI24YC_PDfZvBm7zud7uhiFClWs8MMMmSt0YAWoakVQ4sPfyhlBX9rZLE1-2LobMio6g0vue9PJxzmJhZ7GrcOqHu__IpbmtPpwj-VHnvhDkU8dhC8617HyVU7xDsajZ89HmqSIVFtXrpiDTChDwBfMlx7QRmzu7bNNXyesQqDoyBJJgReW3M0evw

 

复制以上令牌内容到空格中,点击进入以下页面代表成功。

 

一、Kubernetes 介绍:
 
 
kubernetes起源

 

Kubernetes (K8s) 是 Google 在 2014 年发布的一个开源项目。
据说 Google 的数据中心里运行着超过 20 亿个容器,而且 Google 十年前就开始使用容器技术。最初,Google 开发了一个叫 Borg 的系统(现在命令为 Omega)来调度如此庞大数量的容器和工作负载。在积累了这么多年的经验后,Google 决定重写这个容器管理系统,并将其贡献到开源社区,让全世界都能受益。
这个项目就是 Kubernetes。简单的讲,Kubernetes 是 Google Omega 的开源版本。
从 2014 年第一个版本发布以来,Kubernetes 迅速获得开源社区的追捧,包括 Red Hat、VMware、Canonical 在内的很多有影响力的公司加入到开发和推广的阵营。目前 Kubernetes 已经成为发展最快、市场占有率最高的容器编排引擎产品。 Kubernetes 一直在快速地开发和迭代。
 
Kubernetes 的几个重要概念
在实践之前,必须先学习 Kubernetes 的几个重要概念,它们是组成 Kubernetes 集群的基石。
Cluster 
Cluster 是计算、存储和网络资源的集合,Kubernetes 利用这些资源运行各种基于容器的应用。
Master 
Master 是 Cluster 的大脑,它的主要职责是调度,即决定将应用放在哪里运行。Master 运行 Linux 操作系统,可以是物理机或者虚拟机。为了实现高可用,可以运行多个 Master。
Node 
Node 的职责是运行容器应用。Node 由 Master 管理,Node 负责监控并汇报容器的状态,并根据 Master 的要求管理容器的生命周期。Node 运行在 Linux 操作系统,可以是物理机或者是虚拟机。
Pod 
Pod 是 Kubernetes 的最小工作单元。每个 Pod 包含一个或多个容器。Pod 中的容器会作为一个整体被 Master 调度到一个 Node 上运行。
Kubernetes 引入 Pod 主要基于下面两个目的:
  1. 可管理性。
    有些容器天生就是需要紧密联系,一起工作。Pod 提供了比容器更高层次的抽象,将它们封装到一个部署单元中。Kubernetes 以 Pod 为最小单位进行调度、扩展、共享资源、管理生命周期。
  2. 通信和资源共享。
    Pod 中的所有容器使用同一个网络 namespace,即相同的 IP 地址和 Port 空间。它们可以直接用 localhost 通信。同样的,这些容器可以共享存储,当 Kubernetes 挂载 volume 到 Pod,本质上是将 volume 挂载到 Pod 中的每一个容器。
Pods 有两种使用方式:
  1. 运行单一容器。
    one-container-per-Pod 是 Kubernetes 最常见的模型,这种情况下,只是将单个容器简单封装成 Pod。即便是只有一个容器,Kubernetes 管理的也是 Pod 而不是直接管理容器。
  2. 运行多个容器。
    但问题在于:哪些容器应该放到一个 Pod 中? 
    答案是:这些容器联系必须 非常紧密,而且需要 直接共享资源
举个例子。
下面这个 Pod 包含两个容器:一个 File Puller,一个是 Web Server。
 
File Puller 会定期从外部的 Content Manager 中拉取最新的文件,将其存放在共享的 volume 中。Web Server 从 volume 读取文件,响应 Consumer 的请求。
这两个容器是紧密协作的,它们一起为 Consumer 提供最新的数据;同时它们也通过 volume 共享数据。所以放到一个 Pod 是合适的。
再来看一个反例:是否需要将 Tomcat 和 MySQL 放到一个 Pod 中?
Tomcat 从 MySQL 读取数据,它们之间需要协作,但还不至于需要放到一个 Pod 中一起部署,一起启动,一起停止。同时它们是之间通过 JDBC 交换数据,并不是直接共享存储,所以放到各自的 Pod 中更合适。
Controller 
Kubernetes 通常不会直接创建 Pod,而是通过 Controller 来管理 Pod 的。Controller 中定义了 Pod 的部署特性,比如有几个副本,在什么样的 Node 上运行等。为了满足不同的业务场景,Kubernetes 提供了多种 Controller,包括 Deployment、ReplicaSet、DaemonSet、StatefuleSet、Job 等,我们逐一讨论。
Deployment 是最常用的 Controller,比如前面在线教程中就是通过创建 Deployment 来部署应用的。Deployment 可以管理 Pod 的多个副本,并确保 Pod 按照期望的状态运行。
ReplicaSet 实现了 Pod 的多副本管理。使用 Deployment 时会自动创建 ReplicaSet,也就是说 Deployment 是通过 ReplicaSet 来管理 Pod 的多个副本,我们通常不需要直接使用 ReplicaSet。
DaemonSet 用于每个 Node 最多只运行一个 Pod 副本的场景。正如其名称所揭示的,DaemonSet 通常用于运行 daemon。
StatefuleSet 能够保证 Pod 的每个副本在整个生命周期中名称是不变的。而其他 Controller 不提供这个功能,当某个 Pod 发生故障需要删除并重新启动时,Pod 的名称会发生变化。同时 StatefuleSet 会保证副本按照固定的顺序启动、更新或者删除。
Job 用于运行结束就删除的应用。而其他 Controller 中的 Pod 通常是长期持续运行。
Service 
Deployment 可以部署多个副本,每个 Pod 都有自己的 IP,外界如何访问这些副本呢?
通过 Pod 的 IP 吗?
要知道 Pod 很可能会被频繁地销毁和重启,它们的 IP 会发生变化,用 IP 来访问不太现实。
答案是 Service。
Kubernetes Service 定义了外界访问一组特定 Pod 的方式。Service 有自己的 IP 和端口,Service 为 Pod 提供了负载均衡。
Kubernetes 运行容器(Pod)与访问容器(Pod)这两项任务分别由 Controller 和 Service 执行。
Namespace
如果有多个用户或项目组使用同一个 Kubernetes Cluster,如何将他们创建的 Controller、Pod 等资源分开呢?
答案就是 Namespace。
Namespace 可以将一个物理的 Cluster 逻辑上划分成多个虚拟 Cluster,每个 Cluster 就是一个 Namespace。不同 Namespace 里的资源是完全隔离的。
Kubernetes 默认创建了三个 Namespace。default -- 创建资源时如果不指定,将被放到这个 Namespace 中。kube-system -- Kubernetes 自己创建的系统资源将放到这个 Namespace 中。kube-public -- Kubernetes 公共的系统资源将放到这个 Namespace 中。
 
posted on 2019-06-19 20:05  猪肉佬!  阅读(1533)  评论(0编辑  收藏  举报