五、Service详解
### 一、Service简介
1.1 service作用
作用:
-
使集群内部能访问pod,或者集群外访问pod
-
用于pod的服务发现与负载均衡(TCP/UDP 4层)
-
通过selector指定某一类pod的标签相关联pod
-
底层原理是通过iptables和IPVS二种网络模式来实现的服务发现跟负载均衡
为什么要用到service,因为Pod是不稳定的,随时可能停止在被控制器拉起,这样ip就会发生变化,所以需要service提供一个固定的ip来访问这些pod
pod的服务发现:
通过deployment或者replicas控制器创建的pod,指定了pod的副本个数,当pod的副本个数扩容或裁剪的时候,service是自动发现新增的pod并给他流量,自动发现裁剪的pod,不再给这类下线的pod流量,也就访问不到下线的pod了。
负载均衡:
使用service关联多个pod,流量是负载均衡到每个pod上的。
底层原理:
Service工作模式有三种:userspace(k8s 1.1版本之前使用),iptables(k8s 1.10版本之前使用),ipvs(k8s 1.11版本之后一直默认使用)
目前k8s默认使用ipvs模式来转发流量的,Service也是通过这种模式来找pod的。
参考资料:Service三种工作模式
Iptables实现流量转发
可使用命令查看规则
iptables -L -n #查看
ipvs实现流量转发
可使用命令查看规则
ipvsadm -ln
参考资料:iptables跟ipvs区别
1.2 service类型
service类型分为:
- ClusterIP
默认,分配一个只有集群内部节点可以访问的虚拟IP,集群内部节点指的是master跟node节点
- NodePort
在每个集群节点上分配一个端口作为外部访问入口,集群外部节点也能访问
- LoadBalancer
负载均衡器,工作在特定的Cloud Provider(云平台)上,例如Google Cloud,AWS,OpenStack
- ExternalName
表示把集群外部的服务引入到集群内部中来,即实现了集群内部pod和集群外部的服务进行通信;也可用于不同命名空间之间的通信。
参考资料:LoadBalancer详解,ExternalName详解
补充:
ClusterIP根据是否生成ClusterIP又可分为普通Service和Headless Service(无头服务)
-
普通Service:
为Kubernetes的Service分配一个集群内部可访问的固定的虚拟IP(Cluster IP), 实现集群内的访问。
-
Headless Service: (无头服务)
该服务不会分配Cluster IP, 也不通过kube-proxy做反向代理和负载均衡。而是通过DNS为每个pod提供一个域名,这样我们能访问到每个单独的pod。
参考资料:Headless Service详解
二、使用Service
2.1 ClusterIP类型
集群IP模式,只能在集群内部进行访问,如master跟node节点上,将某一类相同标签的pod映射出来,分配一个service的ip来进行访问。
如下图所示,使用Deployment资源创建了3个pod,将这三个pod的80端口映射为8000端口,并提供一个Service的ip来访问这些pod,这时我们在集群中的任意节点(即Master或者Node节点上)通过Service的IP加端口就能负载均衡访问到这3个pod。
下面我们来创建一个该类型的Service服务体验一下。
1.使用命令创建方式
定义一个名为my-dep的Deployment资源,里面包含有3个pod副本,每个pod中含有一个nginx容器
kubectl create deployment my-dep --image=nginx --replicas=3
kubectl get deploy
创建Service,默认就是--type=ClusterIP
模式,这里也可以不写--type=ClusterIP
kubectl expose deploy my-dep --port=8000 --target-port=80 --type=ClusterIP --protocol=TCP
查看当前的service
kubectl get services
kubectl get svc
可以看到该Service的集群IP为10.96.100.203,暴露的端口为8000,我们在任意集群节点上都可访问
curl http://10.96.100.203:8000
负载均衡访问到3个pod中。
什么,你还不信是负载均衡访问到后面的pod的?那么我们分别修改这3个pod中的index.html文件
#查看创建的pod名
kubectl get pods
#依次修改每个pod的html页面,注意进入容器后使用ctrl+d退出容器
kubectl exec -it my-dep-5b7868d854-bntks -- /bin/bash
echo 'this is 1 page' > /usr/share/nginx/html/index.html
#修改第二个pod
...
echo 'this is 2 page' > /usr/share/nginx/html/index.html
#修改第三个pod
...
echo 'this is 3 page' > /usr/share/nginx/html/index.html
#访问Service服务
curl http://10.96.100.203:8000
2.使用yaml文件创建方式
1.创建deployment的yaml文件
[root@k8s-master01 ~]# vim nginx-dep.yml
apiVersion: apps/v1 #版本信息使用kubectl explain deployment查看
kind: Deployment
metadata:
name: nginx-dep
spec:
replicas: 2 #定义2个pod副本
selector:
matchLabels:
app: nginx-dep #匹配的pod标签名
template:
metadata:
name: nginx
labels:
app: nginx-dep # pod的标签名,要跟matchLabels里定义的一致
spec:
containers:
- name: nginx
image: nginx:1.15-alpine
imagePullPolicy: IfNotPresent
ports:
- containerPort: 80
#应用yaml清单
kubectl apply -f nginx-dep.yml
2.创建Service的yaml文件
这里关联的是标签名为nginx-dep的pod
[root@k8s-master01 ~]# vim nginx-svc.yml
apiVersion: v1
kind: Service
metadata:
name: nginx-svc
namespace: default
labels:
app: nginx-svc
spec:
clusterIP: 10.96.139.8 #指定ClusterIP,不写此行会自动分配一个Service的ip
type: ClusterIP #可以不写此行,默认为ClusterIP模式
selector:
app: nginx-dep #关联的pod的标签名
ports:
- port: 8000
protocol: TCP
targetPort: 80
#应用yaml清单
kubectl apply -f nginx-svc.yml
查看Pod的标签名
kubectl get pods --show-labels
kubectl get pod -l app=nginx-dep
3.查看service,跟deployment,endpoints节点信息
kubectl get svc,deploy,ep
这里的endpoints指的是pod,可以查看pod的IP地址
导出yaml文件
kubectl get svc nginx-svc -o yaml> nginx-svc.yaml
编辑修改资源
kubectl edit svc nginx-svc
Service服务发现
关于Service的服务发现,我们来做个实验。
这里就着前面搞的那个deloyment资源,原来是3个pod副本,我们改成2个副本
kubectl get deploy
#编辑my-dep资源
kubectl edit deploy my-dep
...
replicas: 2 #修改副本数为2
...
#访问Service服务
curl http://10.96.100.203:8000
这时发现还是能正常访问Service服务,这就是Service的服务发现功能,自动感知pod扩容和裁剪,无需我们人工操作
使用Service名访问
前面我们是通过访问service的IP发现是可以负载均衡到后面的pod上的,我们也可以在容器内部访问service的名字达到一样的效果。
kubectl get svc #得到Service名字my-dep
kubectl get pods #查看pod
kubectl exec -it my-dep-5b7868d854-crh94 -- /bin/bash #进入容器
curl my-dep.default.svc:8000
curl my-dep:8000
此时的my-dep.default.svc:8000中的my-dep为服务名,default为命名空间,svc表示service,可简写为my-dep:8000,需要进入容器中访问才能用这种方式,因为有coredns解析,但在集群节点上无法使用,集群节点只能用Service_ip:8000的方式访问,因为没有dns解析
2.2 NodePort类型
在每台集群节点上都映射端口,这样访问集群任意节点的端口就能访问到pod提供的服务,这就不限于集群中了,集群外也能访问。
下面我们来创建一个该类型的Service服务体验一下。
1.使用命令创建方式
定义一个名为my-dep的Deployment资源,里面包含有3个pod副本,每个pod中含有一个nginx容器。
kubectl create deployment my-dep --image=nginx --replicas=3
kubectl get deploy
创建Service,指定类型为NodePort
kubectl expose deploy my-dep --port=8000 --target-port=80 --type=NodePort --protocol=TCP
查看当前的service
kubectl get services
kubectl get svc
这里可以看到名为my-dep的Service使用了10.96.27.163的集群IP,暴露了一个8000端口,用于集群内部访问;还有一个38780端口,可用于集群外部访问,这个38780端口是在每个集群节点上都开了
访问
#在集群内部访问
curl 10.96.27.163:8000
#10.154.0.111是我的master的IP地址,其他两台是我的node节点
#在集群外部使用浏览器访问http://10.154.0.111:38780
#在集群外部使用浏览器访问http://10.154.0.112:38780
#在集群外部使用浏览器访问http://10.154.0.113:38780
注意,这个38780端口在任何一台集群节点上都开放了,该端口是随机暴露的,范围在30000-32767之间
如果觉得访问集群节点加端口的方式不很方便,可以使用Nginx做负载均衡,或者Ingress控制器做负载均衡。
2.使用yaml文件创建方式
这里使用我们之前创建的Deployment关联的那2个pod,对了,每个pod可以关联多个Service,名为nginx-dep的pod之前关联了ClusterIP类型的Service,这里我们继续用它关联NodePort类型的Service。
1.创建NodePort的Service
[root@k8s-master01 ~]# vim nginx-svc2.yml
apiVersion: v1
kind: Service
metadata:
name: nginx-svc2
namespace: default
labels:
app: nginx-svc2
spec:
type: NodePort #这里改为NodePort模式
selector:
app: nginx-dep #关联的pod的标签名
ports:
- port: 8000
protocol: TCP
targetPort: 80
#应用yaml清单
kubectl apply -f nginx-svc2.yml
2.查看service,跟deployment,endpoints节点信息
kubectl get svc,deploy,ep
如果不想使用集群IP加端口的方式访问,可以部署一台Nginx作为负载均衡器,这样能更加规范化。
补充:
我们也可以编辑之前ClusterIP类型创建的名为my-dep的Service,将其改为ClusterIP模式
#编辑名为nginx-svc的Service
kubectl edit service nginx-svc
type: NodePort #修改type为NodePort
#或者
kubectl patch service nginx-svc -p '{"spec": {"type":"NodePort"}}'
2.3 loadbalancer类型
使用云厂商的提供的负载均衡器,关联到 loadbalancer类型的Service,这样我们就能在集群外访问云服务厂商的LB,访问到我们的pod服务了。
访问流程:用户-->域名-->云服务提供端提供LB-->NodeIP:Port(serviceIP)-->Pod IP:端口
具体方式就是修改Service的type: LoadBalancer
,然后在云平台上创建一个LB,关联到该Service即可,我没有使用过厂商的云平台,这里可以自行查看文档,应该很简单的。
参考资料:腾讯云LoadBalancer,华为云LoadBalancer
2.4 ExternalName类型
ExternalName类型的Service,就是将该Service名跟集群外部服务地址做一个映射,使之访问Service名称就是访问外部服务。
这里使用两个案例来介绍,一个是绑定外部域名,也可以绑定其他命名空间的域名。
1.绑定集群外部域名
把外部的服务绑定到集群内部的ExternalName类型的Service上,这样访问该Service名就能访问到外部服务,先来看一个小例子
1.先创建一个带有curl命令的busybox的pod
[root@k8s-master01 ~]# vim busybox.yml
apiVersion: v1
kind: Pod
metadata:
name: busybox
spec:
containers:
- name: liveness
image: yauritux/busybox-curl
imagePullPolicy: IfNotPresent
args:
- /bin/sh
- -c
- sleep 30000000
2.再创建一个ExternalName类型的Service,绑定的是外部域名www.k8sec.com
[root@k8s-master01 ~]# vim externelname.yml
apiVersion: v1
kind: Service
metadata:
name: k8sec
namespace: default
spec:
type: ExternalName
externalName: www.k8sec.com # 对应的外部域名为www.k8sec.com
#应用YAML文件
kubectl apply -f externelname.yml
3.查看Service
kubectl get svc
4.访问
这时我们就能通过访问名为k8sec.default.svc
的Service访问到www.k8sec.com
#进入第一步创建的busybox
kubectl exec -it busybox -- /bin/sh
curl -I k8sec
curl -I k8sec.default.svc
5, 查看名为k8sec的Service的dns解析
yum install -y bind-utils
dig -t A k8sec.default.svc.cluster.local. @10.96.0.10 #这里10.96.0.10是集群dns地址
可以看出其实是做了一个CNAME,CNAME就是域名映射,将名为k8sec.default.svc的Service映射到www.k8sec.com,我们访问这个Service名,就相当于访问到了www.k8sec.com
这么做的好处就是,一旦外部服务发生了地址变更,如www.k8sec.com挂了,只需要修改Service中的externalName字段即可,对于集群内部是无感知的。
同样我们也可以换成别的服务,如mysql服务,externalName字段改为mysql服务的VIP,这样集群内部就能通过Service名访问到外部的mysql服务了。
2.绑定其他命名空间的域名
这里要注意一点的是,不同命名空间的pod是可以直接通信的,我们使用ExternalName类型的Service本质上就是创建一个用于访问的别名。
1.创建test命名空间
kubectl create ns test
2.在test命名空间中创建nginx的Service
kubectl create deployment nginx --image=nginx -n test
kubectl expose deploy nginx --port=80 --target-port=80 -n test
3.在默认命名空间中创建一个busybox
[root@k8s-master01 ~]# vim busybox.yml
apiVersion: v1
kind: Pod
metadata:
name: busybox
spec:
containers:
- name: liveness
image: yauritux/busybox-curl
imagePullPolicy: IfNotPresent
args:
- /bin/sh
- -c
- sleep 30000000
4.创建ExternalName类型的Service绑定test命名空间的Service
apiVersion: v1
kind: Service
metadata:
name: nginx-external
spec:
type: ExternalName
externalName: nginx.test.svc.cluster.local
ports:
- name: http
port: 80
targetPort: 80
5.验证
#进入处于默认命名空间的busybox中,访问nginx-external
kubectl exec -it busybox -- /bin/sh
curl -I nginx-external
curl -I nginx-external.default.svc
6.查看dns解析
dig -t A nginx-external.default.svc.cluster.local. @10.96.0.10
还有一点要注意: 集群内的Pod会继承Node上的DNS解析规则。所以只要Node可以访问的服务,Pod中也可以访问到, 这就实现了集群内服务访问集群外服务
参考资料:ExternalNames说明,ExternalNames案例
三、补充
3.1 sessionAffinity
可以将来自同一个客户端的请求始终转发至同一个后端的Pod对象,用于pod的会话保持,就是第一次访问谁,后面都访问这个节点。
举个例子,如果你使用账号密码登录,不使用会话保持,那么每次刷新页面就会重新登录一次,因为http是无状态的,每次请求都没有联系。
使用了会话保持就能基于客户端IP地址识别客户端身份,不再每次访问就登录一次。
跟nginx的ip_hash算法类似。
1.设置sessionAffinity为Clientip,启用sessionAffinity
#直接修改service里的参数
kubectl patch svc my_service -p '{"spec": {"sessionAffinity":"ClientIP"}}'
#或者
kubectl edit svc my-service
...
sessionAffinity: ClientIP
#取消sessionAffinity
kubectl patch svc my_service -p '{"spec": {"sessionAffinity":"None"}}'
3.2 headless service
普通的ClusterIP service是service name解析为cluster ip,然后cluster ip对应到后面的pod ip
而无头service是指service name 直接解析为后面的pod ip,也就是说没有ClusterIP了
1, 编写YAML文件
[root@k8s-master01 ~]# vim headless-service.yml
apiVersion: v1
kind: Service
metadata:
name: headless-service
namespace: default
spec:
clusterIP: None # None就代表是无头service
type: ClusterIP # ClusterIP类型,也是默认类型
ports: # 指定service 端口及容器端口
- port: 80 # service ip中的端口
protocol: TCP
targetPort: 80 # pod中的端口
selector: # 指定后端pod标签
app: nginx # 可通过kubectl get pod -l app=nginx查看哪些pod在使用此标签
注意这里的 clusterIP: None 是没有IP的
2, 应用YAML文件创建无头服务
kubectl apply -f headless-service.yml
3, 验证
kubectl get svc
可以看到headless-service没有CLUSTER-IP,用None表示
我们查看headless-service的DNS解析发现解析到了如下两个IP地址
dig -t A headless-service.default.svc.cluster.local. @10.96.0.10
接着查看pod的ip会发现,这两个IP是一致的,也就是说headless service做dns解析是直接解析到pod的
kubectl get pods -o wide
需要注意的是对这类 Service
并不会分配 Cluster IP,kube-proxy 不会处理它们,而且集群也不会为它们进行负载均衡和路由。
这种Service主要用于statefulset控制器,用于部署有状态的pod应用,以后学到了再说吧。
参考资料:Service详解
3.3 kube-DNS
DNS服务监视Kubernetes API,为每一个Service创建DNS记录用于域名解析
headless service需要DNS来解决访问问题
1, 查看kube-dns服务的IP
kubectl get svc -n kube-system
#查看到coreDNS的服务地址是10.96.0.10
四、参考资料
黑马Linux-k8s第三天视频