Linux架构13 负载均衡, 产品与类型, 时间, nginx调度算法, nginx负载均衡状态

Nginx负载均衡

#注意:代理只能代理一台机器
      nginx做代理,一个location可以做一个代理

 

1.为什么做负载均衡

当我们的Web服务器直接面向用户,往往要承载大量并发请求,单台服务器难以负荷,我使用多台Web服务器组成集群,
前端使用Nginx负载均衡,将请求分散的达到我们后端服务器集群中,实现负载的分发。那么会大大提升系统的吞吐率、请求性能、高容灾

往往我们接触的最多的是SLB(Server Load Balance)负载均衡,实现最多的也是SLB、那么SLB它的调度节点和服务节点通常是在一个地域里面。
那么它在这个小的逻辑地域里面决定了他对部分服务的实时性、响应性是非常好的。 所以说海量用户请求过来以后,它同样是请求调度节点,调度节点将用户的请求转发给后端对应的服务节点,服务节点处理完请求后再转发给调度节点,
调度节点最后响应给用户节点。这样也能实现一个均衡的作用,那么Nginx则是一个典型的SLB

2.负载均衡的叫法

负载均衡
负载
Load Balance
LB

3.公有云中叫法

SLB        阿里云负载均衡
LB        青云负载均衡
CLB        腾讯云负载均衡
ULB        ucloud负载均衡

4.常见的负载均衡软件

Nginx    #在1.9版本之前只能做七层,1.9版本之后既能做七层,也能做四层负载均衡
Haproxy    #既能做四层,也能做七层负载均衡
LVS        #只能做四层负载均衡
# LVS是最快的负载均衡软件,其他两个软件需要将请求发送到服务再转发到后端,LVS不用到服务,它相当于将服务器变成了负载均衡,直接转发请求

5.负载均衡类型

#四层负载均衡(端口转发,不能带域名)
所谓四层负载均衡指的是OSI七层模型中的传输层,那么传输层Nginx已经支持TCP/IP的控制,所以只需要对客户端的请求进行TCP/IP协议的包转发就可以实现负载均衡,
那么它的好处是性能非常快、只需要底层进行应用处理,而不需要进行一些复杂的逻辑。
#七层负载均衡 七层负载均衡它是在应用层,那么它可以完成很多应用方面的协议请求,比如我们说的http应用的负载均衡,它可以实现http信息的改写、头信息的改写、
安全应用规则控制、URL匹配规则控制、以及装法、rewrite等等的规则,所以在应用层的服务里面,我们可以做的内容就更多,那么Nginx则是一个典型的七层负载均衡SLB
#四层负载与七层负载区别 四层负载均衡数据包在底层就进行了分发,而七层负载均衡数据包则是在最顶层进行分发、由此可以看出,七层负载均衡效率没有四层负载均衡高。 但七层负载均衡更贴近于服务,如:http协议就是七层协议,我们可以用Nginx可以作会话保持,URL路径规则匹配、head头改写等等,这些是四层负载均衡无法实现的。 注意:四层负载均衡不识别域名,七层负载均衡识别域名(四层负载后还需要做一次七层负载把最后三网络层解开)

 

 

五、Nginx负载均衡配置

 

Nginx要实现负载均衡需要用到proxy_pass代理模块配置

Nginx负载均衡与Nginx代理不同地方在于,Nginx的一个location仅能代理一台服务器,
而Nginx负载均衡则是将客户端请求代理装法至一组upstream虚拟池

1.负载均衡配置语法 ngx_http_upstream_module

Syntax:    upstream name { ... }
Default:    —
Context:    http    # 配在http层

# 例:
upstream backend {        # 定义backend组
    server backend1.example.com;
    server backend2.example.com;
}

server {
    location / {
        proxy_pass http://backend;    # 代理的时候,写组的名字
    }
}

2.环境准备

主机外网ip内网ip身份
lb01 10.0.0.4 172.16.1.4 负载均衡
web01 10.0.0.7 172.16.1.7 web
web02 10.0.0.8 172.16.1.8 web

3.web01准备站点

[root@web01 conf.d]# vim node.conf
server {
    listen 80;
    server_name node.linux.com;

    location / {
        root /code/node;
        index index.html;
    }
}

[root@web01 conf.d]# mkdir /code/node
[root@web01 conf.d]# echo "我是web01..." > /code/node/index.html
[root@web01 conf.d]# systemctl restart nginx

4.web02准备站点

[root@web02 conf.d]# vim node.conf
server {
    listen 80;
    server_name node.linux.com;

    location / {
        root /code/node;
        index index.html;
    }
}

[root@web02 conf.d]# mkdir /code/node
[root@web02 conf.d]# echo "我是web02..." > /code/node/index.html
[root@web02 conf.d]# systemctl restart nginx

5.配置负载均衡配置文件

[root@lb01 conf.d]# vim node_proxy.conf
upstream node {
    server 172.16.1.7:80;    # 默认80端口可以不写
    server 172.16.1.8:80;
}

server {
    listen 80;
    server_name node.linux.com;

    location / {
        proxy_pass http://node;
        include proxy_params;
    }
}
-------------------------------------------
# 检查include文件是否存在
[root@lb01 conf.d]# ll /etc/nginx/proxy_params 
-rw-r--r-- 1 root root 275 Aug 27 01:06 /etc/nginx/proxy_params
[root@lb01 conf.d]# systemctl restart nginx

7.访问页面测试

记得修改host文件 10.0.0.4 node.linux.com

 

8. 负载均衡常见问题

如果后台服务连接超时,Nginx本身是有机制的,如果出现一个节点down掉的时候,Nginx会根据你具体负载均衡的设置,将请求转移到其他的节点上,
但是,如果后台服务连接没有down掉,但是返回错误异常码了如:504、502、500,这个时候你需要加一个负载均衡的设置,如下:
proxy_next_upstream http_500 | http_502 | http_503 |http_504 | http_404;意思是,当其中一台返回错误码404,500...等错误时,
可以分配到下一台服务器程序继续处理,提高平台访问成功率。
server {
    listen 80;
    server_name node.linux.com;
    
    location / {
        proxy_pass http://node;
        proxy_next_upstream error timeout http_500 http_502 http_503 http_504;
    }
}

 

六、nginx调度算法

调度算法概述
轮询 按时间顺序逐一分配到不同的后端服务器(默认)
weight 加权轮询,weight值越大,分配到的访问几率越高
ip_hash

每个请求按访问IP的hash结果分配,这样来自同一IP的固定访问一个后端服务器

(ip_hash 算法只使用 IPV4 的前 24 位做 hash 运算,如果客户端IP前24位一致,则会被调度到同一台后端服务器,

#10.0.0.1和10.0.0.164看起来是同一个客户端)

url_hash 按照访问URL的hash结果来分配请求,是每一个URL定向到同一个后端服务器
least_conn

最少链接数,那个机器链接数少就分发

1.轮询配置方法

upstream node {
    server 172.16.1.7:80;
    server 172.16.1.8:80;
}

2.加权轮询配置方法

# 访问根据配置的权重比例进行分配
upstream node {
    server 172.16.1.7:80 weight=5;    # weight设置权重
    server 172.16.1.8:80 weight=1;
}

3.ip_hash的配置方法

# 根据访问的来源IP分配至同一台服务器
upstream node {
    server 172.16.1.7:80;
    server 172.16.1.8:80;
    ip_hash;
}
# 经常使用这种方式进行会话保持

 

七、nginx负载均衡状态

状态概述
down 当前的server暂时不参与负载均衡
backup 预留的备份服务器
max_fails 允许请求失败的次数
fail_timeout

对已经检测到处于不可用的后端服务器,每隔此时间间隔 再次进行检测是否恢复可用,

如果发现可用,则将后端服务器参与调度,默认为10秒

经过max_fails失败后,服务暂停时间

max_conns 限制最大的接收连接数

1.down状态配置测试

upstream node {
    # 不参与负载均衡任何调度,一般停机维护或者上线的时候使用
    server 172.16.1.7:80 down;
    server 172.16.1.8:80;
}

设置后端服务器平滑下线

保证服务器当前业务不受影响,正在请求的业务不断,不再接收新的请求

#后端服务器配置
server {
       listen 80;
       root /var/www/html/www.m99-magedu.com;
       server_name www.m99-magedu.com;
       limit_rate 10k;
}

#客户端测试 - 开启两个窗口下载文件
[root@ubuntu ~]# wget http://www.m99-magedu.com/test.img

#在10.0.0.210 上查看,有一个连接
[root@ubuntu ~]# ss -tnep | grep 80
ESTAB 0      0         10.0.0.210:80     10.0.0.206:35844 users:
(("nginx",pid=905,fd=5)) uid:33 ino:37122 sk:1001 cgroup:/system.slice/nginx.service <->

#在10.0.0.159 上查看,也有一个连接
[root@ubuntu ~]# ss -tnep | grep 80
ESTAB 0      0         10.0.0.210:80     10.0.0.206:35844 users:
(("nginx",pid=905,fd=5)) uid:33 ino:37122 sk:1001 
cgroup:/system.slice/nginx.service <->

#修改Proxy Server配置为donw
#修改Proxy Server 配置,将 10.0.0.210 下线
upstream group1{
       server 10.0.0.210 down;
       server 10.0.0.159;
}

server{
       listen 80;
       server_name www.m99-magedu.com;
       location /{
               proxy_pass http://group1;
               proxy_set_header host $http_host;
       }
}

#重载生效(这里不能重启nginx)
[root@ubuntu ~]# nginx -s reload

#查看是否还有连接,如果没有对应连接,即可停止对应服务器(升级)
[root@ubuntu ~]#ss -nte

#升级完成后,修改Proxy Server 配置,把down删除,再重新加载即可

2.backup状态配置测试

当正常服务器都能不能用,备用服务器就会启用。当有一台正常服务器恢复,备用服务器就不运行了

upstream node {
    server 172.16.1.7:80;
    server 172.16.1.8:80 backup;    # 备用,当上面一个停了就用这个备用的,上面恢复就继续用上面的
# server 172.16.1.9:80 backup; # 如果上面的7出现问题,8顶上也出现问题了,9才会使用
}

3.访问错误状态

# 一般 max_fails和fail_timeout一起使用
upstream node {
    server 172.16.1.7:80;
    server 172.16.1.8:80 max_fails=3 fail_timeout=10;#访问如果失败,等10秒再访问(这段时间去找上面服务访问),最多失败3次,超过了不能再连接
}

后端服务器健康性检查

Nginx 的 upstream 指令对于后端服务器的健康性检查是被动检查,当有客户端请求被调度到该服务器
上时,会在TCP协议层的三次握手时检查该服务器是否可用,如果不可用就调度到别的服务器,当不可
用的次数达到指定次数时(默认是1次,由 Server 配置中的 max_fails 选项决定),在规定时间内(默
认是10S,由 Server 配置中的 fail_timeout 选项决定),不会再向该服务器调度请求,直到超过规定时
间后再次向该服务器调度请求,如果再次调度该服务器还是不可用,则继续等待一个时间段,如果再次
调度该服务器可用,则恢复该服务器到调度列表中

4.max_conns限制最大连接数状态配置

upstream node {
    server 172.16.1.7:80;
    server 172.16.1.8:80 max_conns=120;
}

 

综合案例

 实现http自动重定向至 https,并将客户端 https 请求通过负载均衡的方式反向代理到后端的多台 http 服务器上(内网走http,速度快很多)

# upstream 配置
upstream group1{
 server 10.0.0.210;
 server 10.0.0.159;
}
# http 重定向到 https
server{
 listen 80;
 server_name www.m99-magedu.com;
 return 302 https://$server_name$request_uri;
}
# https 配置
server{
 listen 443 ssl http2;
 server_name www.m99-magedu.com;
 ssl_certificate /usr/share/easy-rsa/pki/www.m99-magedu.com.pem;
 ssl_certificate_key /usr/share/easy-rsa/pki/private/www.m99-magedu.com.key;
 ssl_session_cache shared:sslcache:20m;
 ssl_session_timeout 10m;
 
 location /{
 proxy_pass http://group1;
 proxy_set_header host $http_host;
 }
}

 

posted @ 2023-08-31 18:11  战斗小人  阅读(32)  评论(0编辑  收藏  举报