Swarm容器集群管理(超详细)
一、Swarm介绍
Swarm是Docker公司自研发的容器集群管理系统, Swarm在早期是作为一个独立服务存在, 在Docker Engine v1.12中集成了Swarm的集群管理和编排功能。可以通过初始化Swarm或加入现有Swarm来启用Docker引擎的Swarm模式。
Docker Engine CLI和API包括了管理Swarm节点命令,比如添加、删除节点,以及在Swarm中部署和编排服务。也增加了服务栈(Stack)、服务(Service)、任务(Task)概念。
二、Swarm的亮点
参考链接(https://docs.docker.com/engine/swarm/)
1. Docker Engine集成集群管理
使用Docker Engine CLI 创建一个Docker Engine的Swarm模式,在集群中部署应用程序服务。
2. 去中心化设计
Swarm角色分为Manager和Worker节点, Manager节点故障不影响应用使用。
3. 扩容缩容
可以声明每个服务运行的容器数量,通过添加或删除容器数自动调整期望的状态。
4. 期望状态协调
Swarm Manager节点不断监视集群状态,并调整当前状态与期望状态之间的差异。
5. 多主机网络
可以为服务指定overlay网络。当初始化或更新应用程序时, Swarm manager会自动为overlay网络上的容器分配IP地址。
6. 服务发现
Swarm manager节点为集群中的每个服务分配唯一的DNS记录和负载均衡VIP。可以通过Swarm内置的DNS服务器查询集群中每个运行的容器。
7. 负载均衡
实现服务副本负载均衡,提供入口访问。
8. 安全传输
Swarm中的每个节点使用TLS相互验证和加密, 确保安全的其他节点通信。
9. 滚动更新
升级时,逐步将应用服务更新到节点,如果出现问题,可以将任务回滚到先前版本。
三、swarm关键概念
参考链接:https://docs.docker.com/engine/swarm/key-concepts/
1、什么是swarm?
集群管理和任务编排功能已经集成到了Docker引擎中,通过使用swarmkit。swarmkit是一个独立的,专门用于Docker容器编排的项目,可以直接在Docker上使用。
Swarm集群是由多个运行swarm模式的Docker主机组成,关键的是,Docker默认集成了swarm mode。swarm集群中有manager(管理成员关系和选举)、worker(运行swarm service)。
一个Docker主机可以是manager,也可以是worker角色,当然,也可以既是manager,同时也是worker。
当你创建一个service时,你定义了它的理想状态(副本数、网络、存储资源、对外暴露的端口等)。Docker会维持它的状态,例如,如果一个worker node不可用了,Docker会调度不可用node的task到其他nodes上。
运行在容器中的一个task,是swarm service的一部分,且通过swarm manager进行管理和调度,和独立的容器是截然不同的。
swarm service相比单容器的一个最大优势就是,你能够修改一个服务的配置:包括网络、数据卷,不需要手工重启服务。Docker将会更新配置,把过期配置的task停掉,重新创建一个新配置的容器。
当然,也许你会觉得docker compose也能做swarm类似的事情,某些场景下是可以。但是,swarm相比docker compose,功能更加丰富,比如说自动扩容、缩容,分配至task到不同的nodes等。
2、nodes
一个node是Swarm集群中的一个Docker引擎实例。你也可以认为这就是一个docker节点。你可以运行一个或多个节点在单台物理机或云服务器上,但是生产环境上,典型的部署方式是:Docker节点交叉分布式部署在多台物理机或云主机上。
通过swarm部署一个应用,你向manager节点提交一个service,然后manager节点分发工作(task)给worker node。
manager节点同时也会容器编排和集群管理功能,它会选举出一个leader来指挥编排任务。worker nodes接受和执行从manager分发过来的task。一般地,manager节点同时也是worker节点,但是,你也可以将manager节点配置成只进行管理的功能。
Agent则运行在每个worker节点上,时刻等待着接受任务。worker node会上报manager node,分配给他的任务当前状态,这样manager node才能维持每个worker的工作状态。
3、services和tasks
service就是在manager或woker节点上定义的tasks。service是swarm系统最核心的架构,同时也是和swarm最主要的交互者。当你创建一个service,你指定容器镜像以及在容器内部运行的命令。
在副本集模式下,swarm manager将会基于你需要扩容的需求,把task分发到各个节点。对于全局service,swarm会在每个可用节点上运行一个task。
task携带Docker引擎和一组命令让其运行在容器中。它是swarm的原子调度单元。manager节点在扩容的时候回交叉分配task到各个节点上,一旦一个task分配到一个node,它就不能移动到其他node。
4、负载均衡
swarm manager使用 ingress负载均衡来暴露你需要让外部访问的服务。swarm manager能够自动的分配一个外部端口到service,当然,你也能够配置一个外部端口,你可以指定任意没有使用的port,如果你不指定端口,那么swarm manager会给service指定30000-32767之间任意一个端口。
swarn模式有一个内部的DNS组件,它能够自动分发每个服务在swarm里面。swarm manager使用内部负载均衡机制来接受集群中节点的请求,基于DNS名字解析来实现。
四、Swarm架构图
Swarm manager:
1、API:接受命令,创建一个service(API输入)
2、orchestrator:service对象创建的task进行编排工作(编排)
3、allocater:为各个task分配IP地址(分配IP)
4、dispatcher:将task分发到nodes(分发任务)
5、scheduler:安排一个worker运行task(运行任务)
worker node
1、连接到分发器接受指定的task
2、将task指派到对应的worker节点
例子:
swarm manager创建一个3个nginx副本集的service,他会将task分配到对应的node。
五、swarm集群部署
安装需求
1、主机安装了docker,Docker Engine 1.12+
2、关闭selinux、关闭防火墙(或者按照下面需要打开的端口开放防火墙)
3、协议端口开放
- TCP port 2377 集群管理通讯
- TCP and UDP port 7946 节点之间通讯
- UDP port 4789 overlay网络流量
机器分布
角色 | IP | Docker版本 |
manager | 10.11.97.71 | 18.09.7 |
worker01 | 10.11.97.181 | 18.09.7 |
worker02 | 10.11.97.187 | 18.09.7 |
部署swarm
manager节点:
docker swarm init --advertise-addr 10.11.97.71
日志查看:
[root@localhost ~]# docker swarm init --advertise-addr 10.11.97.71 Swarm initialized: current node (nnkbd7e2emx24ymnzyvxv7h2b) is now a manager. To add a worker to this swarm, run the following command: docker swarm join --token SWMTKN-1-4y22cau9ejhrppdlf2g5y7dn6ibltq67ccvoiw2xf3yoj5i5ii-69yg43tece4d5sbwl1a1ftmu9 10.11.97.71:2377 To add a manager to this swarm, run 'docker swarm join-token manager' and follow the instructions. [root@localhost ~]#
worker01节点加入集群:
[root@worker01 compose_nginx_tomcat]# docker swarm join --token SWMTKN-1-4y22cau9ejhrppdlf2g5y7dn6ibltq67ccvoiw2xf3yoj5i5ii-69yg43tece4d5sbwl1a1ftmu9 10.11.97.71:2377 This node joined a swarm as a worker. [root@localhost compose_nginx_tomcat]#
worker02节点加入集群:
[root@worker02 ~]# docker swarm join --token SWMTKN-1-4y22cau9ejhrppdlf2g5y7dn6ibltq67ccvoiw2xf3yoj5i5ii-69yg43tece4d5sbwl1a1ftmu9 10.11.97.71:2377 This node joined a swarm as a worker. [root@localhost ~]#
查看node状态:
部署一个服务
docker service create --replicas 1 --name helloworld alpine ping docker.com
--replicas 副本集数
--name 服务名称
查看服务
当前服务运行在manager上。
六、swarm集群服务管理
1、创建服务
docker service create --replicas 1 --name web01 nginx
2、显示服务详细信息
docker service inspect --pretty web01# 易于阅读显示
docker service inspect web01# json格式返回
3、扩容和缩容
docker service scale web01=3
4、查看服务任务
docker service ls(查看所有service)
docker service ps web01(查看web01)
每个node上分布了1个容器。
docker service ps -f 'desired-state=running' web01(查看运行状态的service)
5、滚动更新服务
docker service create \
--replicas 3 \
--name redis \
--update-delay 10s \
redis:3.0.6
docker service update --image redis:3.0.7 redis
6、创建服务时设定更新策略
docker service create \
--name my_web
--replicas 10 \
--update-delay 10s \
--update-parallelism 2 \
--update-failure-action continue \
nginx:1.12
7、创建服务时设定回滚策略
docker service create \
--name my_web \
--replicas 10 \
--rollback-parallelism 2 \
--rollback-monitor 20s \
--rollback-max-failure-ratio .2 \
nginx:1.12
8、服务更新
docker service update --image nginx:1.13 my_web
9、手动回滚
docker service update --rollback my_web
10、角色切换
升级前:
升级:
停掉manager
systemctl stop docker
将worker02升级
docker node promote worker02
升级后:
七、swarm集群数据管理
1、volume方式管理数据
volume模式:在宿主机上创建一个volume,默认目录为(/var/lib/docker/volume/your_custom_volume/_data),然后把容器的某个目录映射到宿主机的volume上,即使容器挂了,数据还会依然保留在宿主机的volume上。
docker service create --replicas 1--mount type=volume,src=nginx^Cata,dst=/usr/share/nginx/html --name www_web01 nginx:1.12
查看服务
docker service inspect www_web01
服务ID
服务版本
服务创建时间
服务更新时间
服务详细配置
服务名称
服务标签
服务的容器配置
镜像名称
挂载点
资源限制
重启策略
更新配置
回滚配置
挂载点配置
[ { "ID": "7ge7vfprynybyvz9otwomzumv", "Version": { "Index": 313 }, "CreatedAt": "2019-07-20T04:16:41.677166218Z", "UpdatedAt": "2019-07-20T04:16:41.677166218Z", "Spec": { "Name": "www_web01", "Labels": {}, "TaskTemplate": { "ContainerSpec": { "Image": "nginx:1.12@sha256:72daaf46f11cc753c4eab981cbf869919bd1fee3d2170a2adeac12400f494728", "Init": false, "Mounts": [ { "Type": "volume", "Source": "nginx_data", "Target": "/usr/share/nginx/html" } ], "StopGracePeriod": 10000000000, "DNSConfig": {}, "Isolation": "default" }, "Resources": { "Limits": {}, "Reservations": {} }, "RestartPolicy": { "Condition": "any", "Delay": 5000000000, "MaxAttempts": 0 }, "Placement": { "Platforms": [ { "Architecture": "amd64", "OS": "linux" }, { "OS": "linux" }, { "Architecture": "arm64", "OS": "linux" }, { "Architecture": "386", "OS": "linux" }, { "Architecture": "ppc64le", "OS": "linux" }, { "Architecture": "s390x", "OS": "linux" } ] }, "ForceUpdate": 0, "Runtime": "container" }, "Mode": { "Replicated": { "Replicas": 1 } }, "UpdateConfig": { "Parallelism": 1, "FailureAction": "pause", "Monitor": 5000000000, "MaxFailureRatio": 0, "Order": "stop-first" }, "RollbackConfig": { "Parallelism": 1, "FailureAction": "pause", "Monitor": 5000000000, "MaxFailureRatio": 0, "Order": "stop-first" }, "EndpointSpec": { "Mode": "vip" } }, "Endpoint": { "Spec": {} } } ]
查看数据卷
因为我硬盘的数据盘在/data,所以我这里已经把docker的Root Dir设置成/data/docker/,可以看到容器里面的nginx数据目录已经挂在到宿主机的nginx_data了。
2、bind mount方式管理数据
bind mount模式:将宿主机某个目录映射到docker容器,很适合于网站,同时把宿主机的这个目录作为git版本目录,每次update代码的时候,容器就会更新。
创建数据目录
在mananger、worker01、worker02上创建web网站目录:
mkdir -p /data/wwwroot
创建服务
docker service create --replicas 1--mount type=bind,src=/data/wwwroot,dst=/usr/share/nginx/html --name www_web02 nginx:1.12
查看服务
运行在worker02
测试宿主机的数据盘和容器是映射关系:
进入容器查看内容:
可以看到我们在宿主机上创建的index.html已经挂在到容器上了!
3、NFS方式管理数据
前面两种方式都是单机docker上数据共享方式,要是在集群中,这个就不适用了,我们必须使用共享存储或网络存储了。这里我们使用NFS来测试。
安装NFS服务
我们使用第三台(worker02作为NFS服务提供者)
yum install nfs-utils -y
并且在nfs目录放入网站数据内容:
[root@worker02 container_data]# echo 'hello nfs' >index.html
其他两个节点(worker01和manager均需要安装nfs客户端)
创建服务
docker service create \ --mount 'type=volume,src=nfs-vol,dst=/usr/share/nginx/html, \ volume-driver=local,volume-opt=type=nfs,\ volume-opt=device=:/data/container_data,"volume-opt=o=addr=10.11.97.187,vers=4,soft,timeo=180,bg,tcp,rw"' \ --name www_web03_nfs nginx:1.12
swarm支持挂在NFS卷。
可以查看到nfs已经挂在到manager节点了,且nfs里面的内容也在。
进入容器查看:
八、swarm集群发布
架构图
服务发现: Swarm模式内置DNS组件,自动为每个服务分配DNS记录,然后服务的DNS名称在集群内的服务直接分发请求。
负载均衡:在Swarm集群中创建服务时, Ingress网络会自动为其分配一个虚拟IP(VIP),在DNS解析时返回VIP,流入该VIP的流量将自动发送(IPVS)该服务的所以健康任
务(容器)。
在每个节点上创建服务,使用ingress暴露publish port:
docker service create --replicas=3 --name web01 -p 88:80 nginx:1.12
可以看到每个node上各分部了一个容器:
这时你直接访问:http://10.11.97.71:88就可以访问网站了。
注意:
如果你关掉某个节点上web01的服务,swarm会再次启动一个服务,以达到原来task的个数。
在真实环境中,我们可以在swarm集群中的每个节点启动指定个数的tasks,然后在前端使用负载均衡设备,比如HA或Nginx都行,直接通过负载均衡的方式做到高可用。
查看service
docker service inspect web01
[ { "ID": "ii7ggbrqfsl417oqs9xgr877q", #ID "Version": { #版本 "Index": 753 }, "CreatedAt": "2019-07-20T15:12:36.035445496Z", #创建时间 "UpdatedAt": "2019-07-20T15:12:36.037336323Z", #更新时间 "Spec": { #详细配置 "Name": "web01", #服务名称 "Labels": {}, "TaskTemplate": { "ContainerSpec": { #容器配置 "Image": "nginx:1.12@sha256:72daaf46f11cc753c4eab981cbf869919bd1fee3d2170a2adeac12400f494728", "Init": false, "StopGracePeriod": 10000000000, "DNSConfig": {}, "Isolation": "default" }, "Resources": { #资源限制 "Limits": {}, "Reservations": {} }, "RestartPolicy": { #重启策略 "Condition": "any", "Delay": 5000000000, "MaxAttempts": 0 }, "Placement": { #平台相关 "Platforms": [ { "Architecture": "amd64", "OS": "linux" }, { "OS": "linux" }, { "Architecture": "arm64", "OS": "linux" }, { "Architecture": "386", "OS": "linux" }, { "Architecture": "ppc64le", "OS": "linux" }, { "Architecture": "s390x", "OS": "linux" } ] }, "ForceUpdate": 0, "Runtime": "container" }, "Mode": { #模式 "Replicated": { "Replicas": 3 } }, "UpdateConfig": { #更新配置 "Parallelism": 1, "FailureAction": "pause", "Monitor": 5000000000, "MaxFailureRatio": 0, "Order": "stop-first" }, "RollbackConfig": { #回滚配置 "Parallelism": 1, "FailureAction": "pause", "Monitor": 5000000000, "MaxFailureRatio": 0, "Order": "stop-first" }, "EndpointSpec": { #终端配置 "Mode": "vip", "Ports": [ { "Protocol": "tcp", "TargetPort": 80, "PublishedPort": 88, "PublishMode": "ingress" } ] } }, "Endpoint": { #终端,VIP模式,对外暴露88端口,ingress模式 "Spec": { "Mode": "vip", "Ports": [ { "Protocol": "tcp", "TargetPort": 80, "PublishedPort": 88, "PublishMode": "ingress" } ] }, "Ports": [ { "Protocol": "tcp", "TargetPort": 80, "PublishedPort": 88, "PublishMode": "ingress" } ], "VirtualIPs": [ #虚拟出了一个网段 { "NetworkID": "gd7sc5a8ke68zxzf9s7kz5mey", "Addr": "10.255.0.7/16" } ] } } ]
查看network
[root@manager ~]# docker network ls NETWORK ID NAME DRIVER SCOPE 13e5011b8fa7 bridge bridge local 1330304716df docker_gwbridge bridge local 95f6edd3f2ec host host local gd7sc5a8ke68 ingress overlay swarm 57781759f937 none null local
查看ingress网络
[root@manager ~]# docker network inspect gd7 [ { "Name": "ingress", "Id": "gd7sc5a8ke68zxzf9s7kz5mey", "Created": "2019-07-18T17:17:43.808865817+08:00", "Scope": "swarm", "Driver": "overlay", "EnableIPv6": false, "IPAM": { "Driver": "default", "Options": null, "Config": [ { "Subnet": "10.255.0.0/16", "Gateway": "10.255.0.1" } ] }, "Internal": false, "Attachable": false, "Ingress": true, "ConfigFrom": { "Network": "" }, "ConfigOnly": false, "Containers": { "b4f5c5977de9248e4834f91f6a0bd54c438ad4c051cc9fef3537a726f2f64b49": { "Name": "web01.1.p9mhq9xrb35bwscrv23pgmimy", "EndpointID": "28b1e5fc0bef0e2b6ec812870c03962cf534e3f9f65646f507b6462da0a7eb58", "MacAddress": "02:42:0a:ff:00:0b", "IPv4Address": "10.255.0.11/16", "IPv6Address": "" }, "e4d6ace7511ac6ee24c6a3c3170749c8f08cbced6e86c2e4e1524e573db31418": { "Name": "web01.3.j1ev4hq7mjwyyy59e0l0g2qjy", "EndpointID": "6f9f9d2a61a3bb2424f7354dfd5a8e3e421734529fe626b4e263d2093078b285", "MacAddress": "02:42:0a:ff:00:0a", "IPv4Address": "10.255.0.10/16", "IPv6Address": "" }, "ingress-sbox": { "Name": "ingress-endpoint", "EndpointID": "2433360215c02637627f3f2cb8bada006b1837fa4aa551d1dffa6f2efe93987b", "MacAddress": "02:42:0a:ff:00:02", "IPv4Address": "10.255.0.2/16", "IPv6Address": "" } }, "Options": { "com.docker.network.driver.overlay.vxlanid_list": "4096" }, "Labels": {}, "Peers": [ { "Name": "5751b4f046eb", "IP": "10.11.97.71" }, { "Name": "e3f5cc62948d", "IP": "10.11.97.187" }, { "Name": "e9531b469fd9", "IP": "10.11.97.181" } ] } ]
可以看出ingress,模拟出了一个vxlan,驱动类型为overlay,网段为:10.255.0.0/16,网关为10.255.0.1,vxlan有4096个接口。
九、swarm集群高可用架构实现
HAPorxy实现高可用
Nginx反向代理实现高可用
十、Swarm配置文件管理
1、 生成一个基本的Nginx配置文件
# cat site.conf
server {
listen 80;
server_name localhost;
location / {
root /usr/share/nginx/html;
index index.html index.htm;
}
}
2、 将site.conf保存到docker配置中
# docker config create site.conf site.conf
# docker config ls
3、 创建一个Nginx并应用这个配置
# docker service create \
--name nginx \
--config source=site.conf,target=/etc/nginx/conf.d/site.conf \
--publish 8080:80 \
nginx