Kubernetes之DaemonSet

1.DaemonSet在每个节点上运行一个pod

  K8s中Replicationcontroller和ReplicaSet都用于在Kubernetes集群上运行部署特定数量的pod。但是,当希望pod在集群中的每个节点上运行时(并且每个节点都需要正好一个运行的pod实例),就会出现某些情况。

  这些情况包括pod执行系统级别的与基础结构相关的操作。例如,希望在每个节点上运行日志收集器和资源监控器。另一个典型的例子是Kubernetes自己的kube-proxy进程,它需要运行在所有节点上才能使服务工作。

  在Kuberneters之外,此类进程通常在节点启动期间通过系统初始化脚本或systemd守护进程启动。在Kuberneters节点上,仍然可以使用systemd运行系统进程,但这样就不能利用所有的Kuberneters特性了。

 

1.1 使用DaemonSet在每个节点上运行一个pod

  要在所有集群节点上运行一个pod需要创建一个DaemonSet对象,这很像一个ReplicationController或ReplicaSet,除了由DaemonSet创建的pod,己经有一个指定的目标节点并跳过Kubemetes调度程序。它们不是随机分布在集群上的。

  DaemonSet确保创建足够的pod,并在自己的节点上部署每个pod。

  尽管ReplicaSet(或ReplicationController)确保集群中存在期望数量的pod副本,但DaemonSet并没有期望的副本数的概念。它不需要,因为它的工作是确保一个pod匹配它的选择器并在每个节点上运行。

  如果节点下线,DaemonSet不会在其他地方重新创建pod。但是,当将一个新节点添加到集群中时,DaemonSet会立刻部署一个新的pod实例。如果有人无意中删除了一个pod,那么它也会重新创建一个新的pod。与ReplicaSet—样,DaemonSet从配置的pod模板创建pod。

 

1.2 使用DaemonSet只在特定的节点上运行pod

  DaemonSet将pod部署到集群中的所有节点上,除非指定这些pod只在部分节点上运行。这是通过pod模板中的nodeSelector属性指定的,这是DaemonSet定义的一部分(类似于ReplicaSet或ReplicationController中的pod模板)。

  也可以使用节点选择器将pod部署到特定的节点上。DaemonSet中的节点选择器与之相似——它定义了DaemonSet必须将其pod部署到的节点。

  注意:节点可以被设置为不可调度的,防止pod被部署到节点上。DaemonSet甚至会将pod部署到这些节点上,因为无法调度的属性只会被调度器使用,而DaemonSet管理的pod则完全绕过调度器。这是预期的,因为DaemonSet的目的是运行系统服务,即使是在不可调度的节点上,系统服务通常也需要运行。

  用一个例子来解释DaemonSet

  假设有一个名为ssd-monitor的守护进程,它需要在包含固态驱动器(SSD)的所有节点上运行。你将创建一个DaemonSet,它在标记为具有SSD的所有 节点上运行这个守护进程。集群管理员己经向所有此类节点添加了disk=ssd的标签,因此你将使用节点选择器创建DaemonSet,该选择器只选择具有该标签的节点,如图4.9所示。

  创建一个DaemonSet YAML定义文件

  假设将创建一个运行模拟的ssd-monitor监控器进程的DaemonSet,该进程每5秒会将“SSD OK”打印到标准输出。为DaemonSet创建一个YAML文件,如下面的代码清单所示。

#代码4.10 一个DaemonSet的YAML: ssd-monitor-daemonset.yaml
apiVersion: apps/v1beta2 #DaemonSet在apps的API组中,版本是v1beta2 kind: DaemonSet metadata: name: ssd-monitor spec: selector: matchLabels: app: ssd-monitor template: metadata: labels: app: ssd-monitor spec: nodeSelector: #pod模版包含一个节点选择器,会选择所有disk=ssd标签的节点 disk: ssd containers: - name: main image: luksa/ssd-monitor

  创建DaemonSet

  创建一个DaemonSet就像从YAML文件创建资源那样:

$ kubectl create -f ssd-monitor-daemonset.yaml
daemonset "ssd-monitor" created

  来看一下创建的DaemonSet:

$ kubectl get ds
NAME          DESIRED  CURRENT  READY  UP-TO-DATE  AVAILABLE  NODE-SELECTOR
ssd-monitor   0        0        0      0           0          disk=ssd

  这0看起来很奇怪。DaemonSet应该部署pod吗? 现在列出pod:

$ kubectl get po
No resources found

  pod在哪里呢?知道发生了什么吗?是的,忘记给节点打上disk=ssd标签了。 打上标签之后,DaemonSet将检测到节点的标签己经更改,并将pod部署到有匹配标签的所有节点。

  向节点上添加所需的标签

  无论你使用的是Minikube、GKE或其他多节点集群,都需要首先列出节点,因为在标记时需要知道节点的名称:

$ kubectl get node
NAME       STATUS    AGE       VERSION
minikube   Ready     4d        v1.6.0

  现在给节点添加disk=ssd标签(如果没有使用Minikube,用你的节点名替换minikube)

 kubectl label node minikube disk=ssd
node "minikube" labeled

  DaemonSet现在应该己经创建pod了

$ kubectl get po
NAME                READY     STATUS    RESTARTS   AGE
ssd-monitor-hgxwq   1/1       Running   0          35s

  现在看起来一切正常。如果有多个节点并且其他的节点也加上了同样的标签,将会看到DaemonSet在每个节点上都启动pod。

  从节点上删除所需的标签

  现在假设给其中一个节点打错了标签。它的硬盘是磁盘而不是SSD。这时修改了标签会发生什么呢?

$ kubectl label node minikube disk=hdd --overwrite
node "minikube" labeled

  看一下更改是否影响了运行在节点上的pod:

$ kubectl get po
NAME                READY     STATUS        RESTARTS   AGE
ssd-monitor-hgxwq   1/1       Terminating   0          4m

  pod如预期中正在被终止。这里对DaemonSet的探索就要结束了,因此可能想要删除ssd-monitor DaemonSet。如果还有其他的pod在运行,删除DaemonSet也会一起删除这些pod。

posted @ 2021-05-14 20:38  小家电维修  阅读(175)  评论(0编辑  收藏  举报