kubernets之服务发现
一 服务与pod的发现
1.1 服务发现pod是很显而易见的事情,通过简称pod的标签是否和服务的标签一致即可,但是pod是如何发现服务的呢?这个问题其实感觉比较多余,但是接下来你就可能不这么想了
首先,众所周知,pod是有生命周期,并且受控于它的管控器(RC等),当节点从集群中离开,则管控器需要重新创建pod,此时RC和pod里面都无服务的信息,那么是如何发现服务的呢?
1.2 一个简单的方法是通过环境变量的形式来发现服务,但是这种方式,只能是服务在pod之前创建,因为这样集群才能将服务的相关的信息以环境变量的形式写入进去
我们先删除现有的pod,删除之后RC会感知到集群里面的pod数量不符合预期,于是会重新创建3个pod
[root@node01 Chapter05]# k delete po --all pod "kubia-2z6kz" deleted pod "kubia-m79rd" deleted pod "kubia-trmbx" deleted [root@node01 Chapter05]# k get po NAME READY STATUS RESTARTS AGE kubia-44qx4 1/1 Running 0 63s kubia-665qt 1/1 Running 0 63s kubia-k9cw8 1/1 Running 0 63s
1.3 之后查看任意的一个pod内部容器的环境变量可知
[root@node01 Chapter05]# k exec kubia-k9cw8 -- env PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin HOSTNAME=kubia-k9cw8 KUBERNETES_PORT_443_TCP_PROTO=tcp KUBIA_SERVICE_HOST=10.109.29.64 KUBIA_SERVICE_PORT=80 KUBIA_PORT_80_TCP=tcp://10.109.29.64:80 KUBIA_PORT_80_TCP_ADDR=10.109.29.64 KUBERNETES_SERVICE_PORT_HTTPS=443 KUBERNETES_PORT_443_TCP_ADDR=10.96.0.1 KUBIA_PORT=tcp://10.109.29.64:80 KUBERNETES_SERVICE_PORT=443 KUBERNETES_SERVICE_HOST=10.96.0.1 KUBERNETES_PORT_443_TCP=tcp://10.96.0.1:443 KUBERNETES_PORT_443_TCP_PORT=443 KUBIA_PORT_80_TCP_PROTO=tcp KUBIA_PORT_80_TCP_PORT=80 KUBERNETES_PORT=tcp://10.96.0.1:443 NPM_CONFIG_LOGLEVEL=info NODE_VERSION=7.9.0 YARN_VERSION=0.22.0 HOME=/root
环境变量如红色字体标注出来一致,可以通过环境的变量的形式来发现服务的存在
1.4 通过环境变量的形式发现服务总觉得有些不尽人意,何不尝试使用DNS的形式发现服务
事实上,kubernets确实允许通过DNS的形式来访问服务,并且这种方式比环境变量的形式要优秀很多
我们首先来看集群中运行DNS服务的在哪里
[root@node01 Chapter05]# k get po --all-namespaces NAMESPACE NAME READY STATUS RESTARTS AGE default kubia-44qx4 1/1 Running 0 13m default kubia-665qt 1/1 Running 0 13m default kubia-k9cw8 1/1 Running 0 13m kube-system coredns-fb8b8dccf-gfkss 1/1 Running 1 3d3h kube-system coredns-fb8b8dccf-tjr6m 1/1 Running 1 3d3h kube-system etcd-master 1/1 Running 1 3d3h kube-system kube-apiserver-master 1/1 Running 0 3d3h kube-system kube-controller-manager-master 1/1 Running 1 3d3h kube-system kube-flannel-ds-b95br 1/1 Running 0 3d2h kube-system kube-flannel-ds-mwlgl 1/1 Running 0 3d3h kube-system kube-flannel-ds-w4mvw 1/1 Running 0 3d2h kube-system kube-proxy-2h9ck 1/1 Running 0 3d3h kube-system kube-proxy-qprh7 1/1 Running 0 3d2h kube-system kube-proxy-z6nwk 1/1 Running 0 3d2h kube-system kube-scheduler-master 1/1 Running 1 3d3h
如红色字体显示,他在kube-system这个命名空间里,并且为所有的pod提供DNS服务那么他又是如何做到的呢,我们看下/etc/resolv.conf
[root@node01 Chapter05]# k get po NAME READY STATUS RESTARTS AGE kubia-44qx4 1/1 Running 0 16m kubia-665qt 1/1 Running 0 16m kubia-k9cw8 1/1 Running 0 16m [root@node01 Chapter05]# k exec kubia-k9cw8 -- cat /etc/resolv.conf nameserver 10.96.0.10 search default.svc.cluster.local svc.cluster.local cluster.local options ndots:5 [root@node01 Chapter05]# k exec kubia-665qt -- cat /etc/resolv.conf nameserver 10.96.0.10 search default.svc.cluster.local svc.cluster.local cluster.local options ndots:5 [root@node01 Chapter05]# k exec kubia-44qx4 -- cat /etc/resolv.conf nameserver 10.96.0.10 search default.svc.cluster.local svc.cluster.local cluster.local options ndots:5
每个pod里面/etc/resolv.conf都已经有了相关的配置于是访问服务就变得更加简单了
1.5 可以直接通过DNS的形式进行访问
root@kubia-44qx4:/# curl -s http://kubia.default.svc.cluster.local You've hit kubia-k9cw8
root@kubia-44qx4:/# curl -s http://kubia.default You've hit kubia-665qt
root@kubia-44qx4:/# curl -s http://kubia You've hit kubia-k9cw8
注意:.svc.cluster.local这个是集群设置的,如果在相同的命名空间里面甚至可以直接用svc的名称加端口号访问
在不同的命令空间的svc只需要添加服务名称加命名空间和端口号(在同一个集群)