Swarm使用原生的overlay网络
一、Swarm Overlay Network
Swarm有Service的概念。一个Service是指使用相同镜像、同时运行的多个容器,多个容器同时一起对外提供服务,多个容器之间负载均衡。每个Service会有一个浮动IP(VIP),各个容器还有自己的物理IP。
创建基于Swarm的Overlay网络,将Service挂载到此网络上。然后Service中的各个容器便可以通过Service名称(同时也是一个DNS名称)和IP地址实现网络互通。
同一个Service内,多个容器之间的负载均衡有两种方案:
- 基于浮动IP(VIP)进行均衡
- 基于DNS解析出不同的IP地址进行均衡
swarm模式的覆盖网络包括以下功能: 1)可以附加多个服务到同一个网络。 2)默认情况下,service discovery为每个swarm服务分配一个虚拟IP地址(vip)和DNS名称,使得在同一个网络中容器之间可以使用服务名称为互相连接。 3)可以配置使用DNS轮循而不使用VIP 4)为了可以使用swarm的覆盖网络,在启用swarm模式之间需要在swarm节点之间开放以下端口: 5)TCP/UDP端口7946 – 用于容器网络发现 6)UDP端口4789 – 用于容器覆盖网络
二、创建swarm overlay 网络
2.1 创建overlay网络
[root@manager ~]# docker network create --driver overlay --opt encrypted --subnet 10.10.1.0/24 ol_net 参数解释: –opt encrypted 默认情况下swarm中的节点通信是加密的。在不同节点的容器之间,可选的–opt encrypted参数能在它们的vxlan流量启用附加的加密层。 --subnet 命令行参数指定overlay网络使用的子网网段。当不指定一个子网时,swarm管理器自动选择一个子网并分配给网络。 [root@manager ~]# docker network ls NETWORK ID NAME DRIVER SCOPE 40b5590f7216 bridge bridge local cb1610f00364 docker_gwbridge bridge local 9fa64715b4f2 host host local 2mhfiejb2g77 ingress overlay swarm 168285bc1c23 none null local mun52zjgstgx ol_net overlay swarm 由上可知,Swarm当中拥有2套覆盖网络。其中"ol_net"网络正是我们在部署容器时所创建的。而"ingress"覆盖网络则为默认提供。 Swarm 管理节点会利用 ingress 负载均衡以将服务公布至集群之外。 在将服务连接到这个创建的网络之前,网络覆盖到manager节点。上面输出的SCOPE为 swarm 表示将服务部署到Swarm时可以使用此网络。 在将服务连接到这个网络后,Swarm只将该网络扩展到特定的worker节点,这个worker节点被swarm调度器分配了运行服务的任务。 在那些没有运行该服务任务的worker节点上,网络并不扩展到该节点。
2.2 将服务连接到overlay网络
[root@manager ~]# docker service create --replicas 5 --network ol_net --name my-nginx -p 80:80 nginx etq3t5muc0lnpqr14e3sodmno overall progress: 0 out of 5 tasks overall progress: 5 out of 5 tasks 1/5: running [==================================================>] 2/5: running [==================================================>] 3/5: running [==================================================>] 4/5: running [==================================================>] 5/5: running [==================================================>] verify: Service converg
在三个节点上服务都运行起来了,所以overlay网络(ol_net)扩展到了3个节点上
2.3 查看my-nginx的ip信息
# 管理节点查看service vip [root@manager ~]# docker service inspect --format='{{json .Endpoint.VirtualIPs}}' my-nginx [{"NetworkID":"2mhfiejb2g77mfxss4dtu18h9","Addr":"10.255.0.89/16"},{"NetworkID":"mun52zjgstgxxinskkfqm4qt1","Addr":"10.10.1.89/24"}] # 10.10.1.89 就是swarm集群中my-nginx服务的vip
# 工作节点的ip,依次查看所有容器的ip [root@node-01 ~]# docker network inspect ol_net ......... "Containers": { "44e23ef7b17ec94d370866f51460a1d600c29018ff388e374581bc72d5466269": { "Name": "my-nginx.5.0aj9swgnsxgz4iwu63lsx5bgd", "EndpointID": "2956e153e67f42cf7785d41484d57640db19b4ae1bb712f1a53b89f672010115", "MacAddress": "02:42:0a:0a:01:5e", "IPv4Address": "10.10.1.94/24", "IPv6Address": "" } },
这里5个replicas的ip分别为10.10.1.90~94,整个网络结构如下:
加入到同一个overlay网络中的容器彼此间可以相互通过IP地址通信,也可以通过名称通信。(nginx镜像没有网络工具。。。,不能给出测试截图)
三、使用swarm的服务发现
默认情况下,当创建了一个服务并连接到某个网络后,swarm会为该服务分配一个VIP。此VIP根据服务名映射到DNS。在网络上的容器共享该服务的DNS映射,
所以网络上的任意容器可以通过服务名访问服务。
在同一overlay网络中,不用通过端口映射来使某个服务可以被其它服务访问。Swarm内部的负载均衡器自动将请求发送到服务的VIP上,然后分发到所有的active的task上。
在同一个网络中添加了一个centos服务,此服务可以通过名称my-test访问前面创建的nginx服务 [root@manager ~]# docker service create --name my-centos --network ol_net centosos 为这个服务添加一个task,不然不能正常运行 [root@manager ~]# docker service update --args "ping www.baidu.com" my-centos 查看在哪个节点上运行 [root@manager ~]# docker service ps my-centos ID NAME IMAGE NODE DESIRED STATE CURRENT STATE ERROR PORTS i2skqpwsd80g my-centos.1 centos:latest node-01 Running Running 18 seconds ago 打开交互 [root@node-01 ~]# docker exec -it 127e0e79f6eb /bin/bash
在centos内部,ping同my-nginx服务中的容器和服务本身,以及DNS查询
# 和my-nginx服务通信 [root@127e0e79f6eb /]# ping 10.10.1.89 PING 10.10.1.89 (10.10.1.89) 56(84) bytes of data. 64 bytes from 10.10.1.89: icmp_seq=1 ttl=64 time=0.032 ms ^C --- 10.10.1.89 ping statistics --- 1 packets transmitted, 1 received, 0% packet loss, time 0ms rtt min/avg/max/mdev = 0.032/0.032/0.032/0.000 ms [root@127e0e79f6eb /]# ping 10.10.1.92 PING 10.10.1.92 (10.10.1.92) 56(84) bytes of data. 64 bytes from 10.10.1.92: icmp_seq=1 ttl=64 time=0.462 ms 64 bytes from 10.10.1.92: icmp_seq=2 ttl=64 time=0.252 ms #使用特殊查询 查询DNS,来找到my-nginx服务的所有容器的IP地址: [root@127e0e79f6eb /]# nslookup > my-nginx Server: 127.0.0.11 Address: 127.0.0.11#53 Non-authoritative answer: Name: my-nginx Address: 10.10.1.89 > tasks.my-nginx Server: 127.0.0.11 Address: 127.0.0.11#53 Non-authoritative answer: Name: tasks.my-nginx Address: 10.10.1.92 Name: tasks.my-nginx Address: 10.10.1.90 Name: tasks.my-nginx Address: 10.10.1.91 Name: tasks.my-nginx Address: 10.10.1.94 Name: tasks.my-nginx Address: 10.10.1.93 #从centos容器内部,通过wget来访问my-nginx服务中运行的nginx网页服务器 [root@127e0e79f6eb /]# wget -O- my-nginx --2018-04-10 09:21:27-- http://my-nginx/ Resolving my-nginx (my-nginx)... 10.10.1.89 Connecting to my-nginx (my-nginx)|10.10.1.89|:80... connected. HTTP request sent, awaiting response... 200 OK Swarm的负载均衡器自动将HTTP请求路由到VIP上,然后到一个active的task容器上。它根据round-robin选择算法将后续的请求分发到另一个active的task上。
使用dnsrr模式,不能对外暴露端口,只能overlay网络内部识别
#创建 [root@manager ~]# docker service create \ > --replicas 5 \ > --name web-test \ > --network ol_net \ > --endpoint-mode dnsrr \ > nginx # 查看 [root@manager ~]# docker service ps web-test ID NAME IMAGE NODE DESIRED STATE CURRENT STATE ERROR PORTS pjb8x0i0w5yy web-test.1 nginx:latest node-02 Running Running 3 minutes ago 5uora7bbgxyc web-test.2 nginx:latest node-01 Running Running 3 minutes ago uwxxqipk1nd3 web-test.3 nginx:latest node-02 Running Running 3 minutes ago iuneh99mli2d web-test.4 nginx:latest node-01 Running Running 3 minutes ago q2vz2y1upfu9 web-test.5 nginx:latest node-03 Running Running 3 minutes ago # 在my-centos容器中测试联通 [root@0709f126d547 ~]# nslookup web-test Server: 127.0.0.11 Address: 127.0.0.11#53 Non-authoritative answer: Name: web-test Address: 10.10.1.36 Name: web-test Address: 10.10.1.38 Name: web-test Address: 10.10.1.34 Name: web-test Address: 10.10.1.35 Name: web-test Address: 10.10.1.37 # 任务会负载到各个容器 [root@0709f126d547 ~]# ping web-test PING web-test (10.10.1.34) 56(84) bytes of data. 64 bytes from web-test.1.pjb8x0i0w5yys4la6ibqavvcf.ol_net (10.10.1.34): icmp_seq=1 ttl=64 time=0.050 ms ^C --- web-test ping statistics --- 1 packets transmitted, 1 received, 0% packet loss, time 0ms rtt min/avg/max/mdev = 0.050/0.050/0.050/0.000 ms [root@0709f126d547 ~]# ping web-test PING web-test (10.10.1.35) 56(84) bytes of data. 64 bytes from web-test.2.5uora7bbgxycg0ja2dj1l10us.ol_net (10.10.1.35): icmp_seq=1 ttl=64 time=0.334 ms [root@0709f126d547 ~]# ping web-test PING web-test (10.10.1.37) 56(84) bytes of data. 64 bytes from web-test.4.iuneh99mli2dpydycfvy0zefw.ol_net (10.10.1.37): icmp_seq=1 ttl=64 time=0.275 ms
四、Swarm的负载均衡
4.1 Swarm 内部负载
Swarm模式内置DNS组件,可以自动为集群中每一个服务分配DNS记录。Swarm manager使用内部负载均衡,根据服务的DNS名称在集群内的服务之间分发请求。
Swarm manager使用ingress load blancer暴露想从外部访问集群提供的服务。Swarm manager 自动分配一个范围为3000~32767端口的Published Port,也可以为该服务指定一个Published Port,如上例my-web的80端口。
ingress network是一个特殊的overlay网络,便于服务的节点直接负载均衡。当任何swarm节点在发布的端口上接受到请求时,它将该请求转发给调用的IPVS模块,IPVS跟踪参与该服务的所有容器的IP地址,并选择其中一个,通过ingress network将请求路由给它。
查看请求:
从172.16.60.95~98都能访问nginx服务器
4.2 应用外部负载均衡
可以在工作节点之外也能使用负载均衡,即在外部添加Nginx、LVS、HAProxy等