Linux架构13 负载均衡, 产品与类型, 时间, nginx调度算法, nginx负载均衡状态
#注意:代理只能代理一台机器 nginx做代理,一个location可以做一个代理
当我们的Web服务器直接面向用户,往往要承载大量并发请求,单台服务器难以负荷,我使用多台Web服务器组成集群,
前端使用Nginx负载均衡,将请求分散的达到我们后端服务器集群中,实现负载的分发。那么会大大提升系统的吞吐率、请求性能、高容灾
往往我们接触的最多的是SLB(Server Load Balance)负载均衡,实现最多的也是SLB、那么SLB它的调度节点和服务节点通常是在一个地域里面。
那么它在这个小的逻辑地域里面决定了他对部分服务的实时性、响应性是非常好的。
所以说海量用户请求过来以后,它同样是请求调度节点,调度节点将用户的请求转发给后端对应的服务节点,服务节点处理完请求后再转发给调度节点,
调度节点最后响应给用户节点。这样也能实现一个均衡的作用,那么Nginx则是一个典型的SLB
负载均衡
负载
Load Balance
LB
SLB 阿里云负载均衡
LB 青云负载均衡
CLB 腾讯云负载均衡
ULB ucloud负载均衡
Nginx #在1.9版本之前只能做七层,1.9版本之后既能做七层,也能做四层负载均衡 Haproxy #既能做四层,也能做七层负载均衡 LVS #只能做四层负载均衡 # LVS是最快的负载均衡软件,其他两个软件需要将请求发送到服务再转发到后端,LVS不用到服务,它相当于将服务器变成了负载均衡,直接转发请求
#四层负载均衡(端口转发,不能带域名) 所谓四层负载均衡指的是OSI七层模型中的传输层,那么传输层Nginx已经支持TCP/IP的控制,所以只需要对客户端的请求进行TCP/IP协议的包转发就可以实现负载均衡,
那么它的好处是性能非常快、只需要底层进行应用处理,而不需要进行一些复杂的逻辑。 #七层负载均衡 七层负载均衡它是在应用层,那么它可以完成很多应用方面的协议请求,比如我们说的http应用的负载均衡,它可以实现http信息的改写、头信息的改写、
安全应用规则控制、URL匹配规则控制、以及装法、rewrite等等的规则,所以在应用层的服务里面,我们可以做的内容就更多,那么Nginx则是一个典型的七层负载均衡SLB #四层负载与七层负载区别 四层负载均衡数据包在底层就进行了分发,而七层负载均衡数据包则是在最顶层进行分发、由此可以看出,七层负载均衡效率没有四层负载均衡高。 但七层负载均衡更贴近于服务,如:http协议就是七层协议,我们可以用Nginx可以作会话保持,URL路径规则匹配、head头改写等等,这些是四层负载均衡无法实现的。 注意:四层负载均衡不识别域名,七层负载均衡识别域名(四层负载后还需要做一次七层负载把最后三网络层解开)
Nginx要实现负载均衡需要用到proxy_pass代理模块配置
Nginx负载均衡与Nginx代理不同地方在于,Nginx的一个location仅能代理一台服务器,
而Nginx负载均衡则是将客户端请求代理装法至一组upstream虚拟池
Syntax: upstream name { ... } Default: — Context: http # 配在http层 # 例: upstream backend { # 定义backend组 server backend1.example.com; server backend2.example.com; } server { location / { proxy_pass http://backend; # 代理的时候,写组的名字 } }
主机 | 外网ip | 内网ip | 身份 |
---|---|---|---|
lb01 | 10.0.0.4 | 172.16.1.4 | 负载均衡 |
web01 | 10.0.0.7 | 172.16.1.7 | web |
10.0.0.8 | 172.16.1.8 | web |
[root@web01 conf.d]# vim node.conf server { listen 80; server_name node.linux.com; location / { root /code/node; index index.html; } } [root@web01 conf.d]# mkdir /code/node [root@web01 conf.d]# echo "我是web01..." > /code/node/index.html [root@web01 conf.d]# systemctl restart nginx
[root@web02 conf.d]# vim node.conf server { listen 80; server_name node.linux.com; location / { root /code/node; index index.html; } } [root@web02 conf.d]# mkdir /code/node [root@web02 conf.d]# echo "我是web02..." > /code/node/index.html [root@web02 conf.d]# systemctl restart nginx
[root@lb01 conf.d]# vim node_proxy.conf upstream node { server 172.16.1.7:80; # 默认80端口可以不写 server 172.16.1.8:80; } server { listen 80; server_name node.linux.com; location / { proxy_pass http://node; include proxy_params; } } ------------------------------------------- # 检查include文件是否存在 [root@lb01 conf.d]# ll /etc/nginx/proxy_params -rw-r--r-- 1 root root 275 Aug 27 01:06 /etc/nginx/proxy_params [root@lb01 conf.d]# systemctl restart nginx
如果后台服务连接超时,Nginx本身是有机制的,如果出现一个节点down掉的时候,Nginx会根据你具体负载均衡的设置,将请求转移到其他的节点上,
但是,如果后台服务连接没有down掉,但是返回错误异常码了如:504、502、500,这个时候你需要加一个负载均衡的设置,如下:
proxy_next_upstream http_500 | http_502 | http_503 |http_504 | http_404;意思是,当其中一台返回错误码404,500...等错误时,
可以分配到下一台服务器程序继续处理,提高平台访问成功率。
server { listen 80; server_name node.linux.com; location / { proxy_pass http://node; proxy_next_upstream error timeout http_500 http_502 http_503 http_504; } }
调度算法 | 概述 |
---|---|
轮询 | 按时间顺序逐一分配到不同的后端服务器(默认) |
weight | 加权轮询,weight值越大,分配到的访问几率越高 |
ip_hash |
每个请求按访问IP的hash结果分配,这样来自同一IP的固定访问一个后端服务器 (ip_hash 算法只使用 IPV4 的前 24 位做 hash 运算,如果客户端IP前24位一致,则会被调度到同一台后端服务器, #10.0.0.1和10.0.0.164看起来是同一个客户端) |
url_hash | 按照访问URL的hash结果来分配请求,是每一个URL定向到同一个后端服务器 |
least_conn |
|
upstream node { server 172.16.1.7:80; server 172.16.1.8:80; }
# 访问根据配置的权重比例进行分配 upstream node { server 172.16.1.7:80 weight=5; # weight设置权重 server 172.16.1.8:80 weight=1; }
# 根据访问的来源IP分配至同一台服务器 upstream node { server 172.16.1.7:80; server 172.16.1.8:80; ip_hash; } # 经常使用这种方式进行会话保持
状态 | 概述 |
---|---|
down | 当前的server暂时不参与负载均衡 |
backup | 预留的备份服务器 |
max_fails | 允许请求失败的次数 |
fail_timeout |
对已经检测到处于不可用的后端服务器,每隔此时间间隔 再次进行检测是否恢复可用, 如果发现可用,则将后端服务器参与调度,默认为10秒 经过max_fails失败后,服务暂停时间 |
max_conns | 限制最大的接收连接数 |
1.down状态配置测试
upstream node { # 不参与负载均衡任何调度,一般停机维护或者上线的时候使用 server 172.16.1.7:80 down; server 172.16.1.8:80; }
保证服务器当前业务不受影响,正在请求的业务不断,不再接收新的请求 #后端服务器配置 server { listen 80; root /var/www/html/www.m99-magedu.com; server_name www.m99-magedu.com; limit_rate 10k; } #客户端测试 - 开启两个窗口下载文件 [root@ubuntu ~]# wget http://www.m99-magedu.com/test.img #在10.0.0.210 上查看,有一个连接 [root@ubuntu ~]# ss -tnep | grep 80 ESTAB 0 0 10.0.0.210:80 10.0.0.206:35844 users: (("nginx",pid=905,fd=5)) uid:33 ino:37122 sk:1001 cgroup:/system.slice/nginx.service <-> #在10.0.0.159 上查看,也有一个连接 [root@ubuntu ~]# ss -tnep | grep 80 ESTAB 0 0 10.0.0.210:80 10.0.0.206:35844 users: (("nginx",pid=905,fd=5)) uid:33 ino:37122 sk:1001 cgroup:/system.slice/nginx.service <-> #修改Proxy Server配置为donw #修改Proxy Server 配置,将 10.0.0.210 下线 upstream group1{ server 10.0.0.210 down; server 10.0.0.159; } server{ listen 80; server_name www.m99-magedu.com; location /{ proxy_pass http://group1; proxy_set_header host $http_host; } } #重载生效(这里不能重启nginx) [root@ubuntu ~]# nginx -s reload #查看是否还有连接,如果没有对应连接,即可停止对应服务器(升级) [root@ubuntu ~]#ss -nte #升级完成后,修改Proxy Server 配置,把down删除,再重新加载即可
upstream node { server 172.16.1.7:80; server 172.16.1.8:80 backup; # 备用,当上面一个停了就用这个备用的,上面恢复就继续用上面的
# server 172.16.1.9:80 backup; # 如果上面的7出现问题,8顶上也出现问题了,9才会使用
}
# 一般 max_fails和fail_timeout一起使用 upstream node { server 172.16.1.7:80; server 172.16.1.8:80 max_fails=3 fail_timeout=10;#访问如果失败,等10秒再访问(这段时间去找上面服务访问),最多失败3次,超过了不能再连接 }
Nginx 的 upstream 指令对于后端服务器的健康性检查是被动检查,当有客户端请求被调度到该服务器
上时,会在TCP协议层的三次握手时检查该服务器是否可用,如果不可用就调度到别的服务器,当不可
用的次数达到指定次数时(默认是1次,由 Server 配置中的 max_fails 选项决定),在规定时间内(默
认是10S,由 Server 配置中的 fail_timeout 选项决定),不会再向该服务器调度请求,直到超过规定时
间后再次向该服务器调度请求,如果再次调度该服务器还是不可用,则继续等待一个时间段,如果再次
调度该服务器可用,则恢复该服务器到调度列表中
upstream node { server 172.16.1.7:80; server 172.16.1.8:80 max_conns=120; }
综合案例
实现http自动重定向至 https,并将客户端 https 请求通过负载均衡的方式反向代理到后端的多台 http 服务器上(内网走http,速度快很多)
# upstream 配置 upstream group1{ server 10.0.0.210; server 10.0.0.159; } # http 重定向到 https server{ listen 80; server_name www.m99-magedu.com; return 302 https://$server_name$request_uri; } # https 配置 server{ listen 443 ssl http2; server_name www.m99-magedu.com; ssl_certificate /usr/share/easy-rsa/pki/www.m99-magedu.com.pem; ssl_certificate_key /usr/share/easy-rsa/pki/private/www.m99-magedu.com.key; ssl_session_cache shared:sslcache:20m; ssl_session_timeout 10m; location /{ proxy_pass http://group1; proxy_set_header host $http_host; } }