NGINX负载均衡原理+实验用例
Nginx实现负载均衡
Nginx实现负载均衡
负载均衡的作用
1、解决单点故障,让web服务器构成一个集群
2、将请求平均下发给后端的web服务器
负载均衡的软硬件介绍
负载均衡软件:
# nginx
四层负载均衡:stream(nginx 1.9版本以后有stream模块,才可以做四层负载)
七层负载均衡:upstream模块
# HAproxy
四层负载均衡
四层负载均衡
# LVS
只能做四层负载:不识别域名,只识别端口。也就是只能做端口转发、端口代理。但同样四层,LVS的速度是最快的。why?
LVS,它是直接把你物理服务器变成硬件的负载均衡。
用命令 ipvsadm
修改网络和路由配置,直接这台机器变负载均衡。请求到达服务器就直接向后转发了,无需经过像nginx这些应用
###软件如何选?
中小型:nginx
大型互联网公司:前端LVS做四层转发,后端nginx做七层转发
负载均衡硬件:
# F5、Netscaler等。淘宝、赶集网、新浪等公司使用过 Netscaler 负载均衡产品。
###硬件如何选型?
当企业业务重要、技术力量又薄弱,并且希望出钱购买产品及获取更好的服务时,可以选择硬件负载均衡产品,如 F5、Netscaler等,此类公司多为传统的大型非互联网企业,如银行、证券、金融、宝马、奔驰等。
对于门户网站来说,大多会并用软件及硬件产品来分担单一产品的风险,如淘宝、腾讯、新浪等。融资企业可能会购买硬件产品,如赶集等网站。
中小型互联网企业由于起步阶段无利润或者利润很低,会希望通过使用开源免费的方案来解决问题,因此会雇用专门的运维人员进行维护。
相比较而言,商业的负载均衡产品成本高、性能好,更稳定,缺点是不能二次开发,开源的负载均衡软件对运维人员的能力要求较高,如果运维及开发能力强,那么开源软件的负载均衡是不错的选择,目前的互联网行业更偏向使用开源的负载均衡软件
云服务的负载均衡:
阿里云:SLB
亚马逊上被称作ELB
各种叫法不同,作用都是一样的
七层和四层的区别
四层负载均衡数据包在底层就进行了分发,而七层负载均衡数据包则是在最顶层进行分发。由此可以看出,七层负载均衡效率没有四负载均衡高。
但七层负载均衡更贴近于服务,如http协议就是七层协议,我们可以用Nginx可以作会话保持,URL路径规则匹配、head头改写等等,这些是四层负载均衡无法实现的。
四层,走四层 传输层
七层,走七层 应用层
区别:四层较快,但无法识别域名,七层可以识别域名
nginx实现简单负载均衡
简单架构图:
环境准备
主机 | IP | 角色 | 应用 |
---|---|---|---|
lb01 | 10.0.0.5 | nginx负载均衡器 | nginx |
web01 | 10.0.0.7 | web网站、博客网站(前面已搭好,需要开nfs和数据库机器) | nginx php |
web02 | 10.0.0.8 | web网站、博客网站(前面已搭好,需要开nfs和数据库机器) | nginx php |
简单web站点准备
# web01 web02
gzip -r /etc/nginx/conf.d/* (可以把conf.d目录下之前的配置都打包备份)
cd /etc/nginx/conf.d
vim lb.xxx.conf
server{
listen 9999; #开放9999端口
server_name lb.xxx.com;
root /code/lb;
index index.html;
}
# 创建站点目录
mkdir -p /code/lb
# 创建index.html
echo 'web01' > /code/lb/index.html //web01的配置
echo 'web02' > /code/lb/index.html //web02的配置
# 检测语法并重启
nginx -t
systemctl reload nginx
# 检查端口
[root@web01 /code/lb]# netstat -lntup
Active Internet connections (only servers)
Proto Recv-Q Send-Q Local Address Foreign Address State PID/Program name
tcp 0 0 127.0.0.1:9000 0.0.0.0:* LISTEN 10916/php-fpm: mast
tcp 0 0 0.0.0.0:9999 0.0.0.0:* LISTEN 15540/nginx: master
...
# 本地域名解析
#10.0.0.5 lb.xxx.com
10.0.0.7 lb.xxx.com
#10.0.0.8 lb.xxx.com
# 分别访问web01和web02
负载均衡配置(lb01)
# lb01
upstream www_pools{ #//自定义服务器池名www_pools,这里包括web01和web02两个web节点
server 172.16.1.7:9999;
server 172.16.1.8:9999;
}
server { #//定义代理的负载均衡域名虚拟主机
listen 80;
server_name lb.xxx.com;
location / {
proxy_pass http://www_pools; #//访问lb.xxx.com,请求发给www_pools里面的节点
include /etc/nginx/conf.d/proxy_params; #//反向代理参数
}
}
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
proxy_connect_timeout 30;
proxy_send_timeout 60;
proxy_read_timeout 60;
proxy_buffering on;
proxy_buffer_size 32k;
proxy_buffers 4 128k;
# 检查语法,重载nginx
nginx -t
nginx -s reload
# 本地域名解析
#10.0.0.7 lb.xxx.com
#10.0.0.8 lb.xxx.com
# 访问。此时刷新浏览器,一次访问web01,下一次访问web02
负载均衡核心组件Upstream模块
Nginx实现负载均衡的组件主要有两个。一个是proxy模块,还有一个是upstream模块ngx_http_upstream_module,这是nginx实现负载均衡的核心组件。它支持的代理方式包括proxy_pass、fastcgi_pass、memcached_pass等,新版Nginx支持的方式有所增加。我们主要针对proxy_pass代理方式讲解。
ngx_http_upstream_module模块允许Nginx定义一组或多组web节点(服务器节点),使用时可以通过proxy_pass把网站的请求发送到事先定义好的upstream组上。具体写法为:proxy_pass http://abc 。其中abc就是一个upstream组名。
注意upstream 仅仅是定义服务器池,并不会直接处理用户的请求,必须要有其他方式将请求转给这个服务器池(比如proxy_pass)才行。
upstream模块的内容应放于http{}层,即与server层平齐。其默认调度算法为wrr(weight默认为1,即rr)
官方网站:
https://nginx.org/en/docs/http/ngx_http_upstream_module.html
Upstream模块语法
# 基本配置示例
upstream www_pools{ #//upstream为关键字,必须要有,www_pools为自定义组名
server 172.16.1.7:9999 weight=5;
server 172.16.1.8:9999 weight=10;
server 172.16.1.9:9999 weight=15; #//server为固定关键字,后面可以接域名或IP。如不指定端口,默认80
}
# 较完整的upstream配置示例
upstream backend {
server 10.0.0.7; #//此标签等价于下面标签,多出来的是默认值,可以不写
server 10.0.0.8:80 weight=1 max_fails=2 fail_timeout=10s;
}
参数解释:
weight #weight代表服务器权重,数值越大被分配的请求越多。默认值为1
max_fails #Nginx尝试连接后端主机失败的次数,默认1,京东1,建议2-3次
fail_timeout #在max_fails定义的失败次数后,距离下次检查的时间间隔,默认10s,常规业务建议2-3s(比如京东是3s)
down 该服务器不可用。配合ip_hash使用
比如 max_fails=2 fail_timeout=10s 意思是2次连续检测失败后,间隔10s在重新检测。
# 使用域名及socket的示例
upstream backend {
server backend1.example.com weight=5;
server backend2.example.com:8080; #//域名+端口。
server unix:/tmp/backend3; #//指定socket文件
server backup1.example.com:8080 backup; #//backup表示备份服务器(备节点),其他服务器都不可访问时启用。
server backup2.example.com:8080 backup;
}
ps: server后面如果接域名,需要内网有DNS服务器或者在负载均衡的hosts文件做域名解析。
Upstream模块调度算法
调度算法一般分为以下两类:—类为静态调度算法,即负载均衡器根据自身设定的规则进行分配,不需要考虑后端节点服务器情況。例如rr、wrr、ip_ hash都属于静态调度算法。第二类为动态调度算法,即负载均衡器会根据后端节点的当前状态来决定是否分发请求。例如:连接数少的优先获得请求,响应时间短的优先获得请求。least_conn 、fair等属于动态调度算法。
静态调度算法 | 概述 | 说明 |
---|---|---|
rr(轮询) | 按客户端请求顺序将请求逐一分配到不同的后端服务器(此为默认算法)如果后端服务器宕机会自动剔除,访问不受影响 | 请求逐一分配到后端节点 |
wrr(加权轮询) | 在rr的基础上加上权重。weight值越大,被分配到的请求越多 | 配置好的机器,可以多分点 |
ip_hash | 每个请求按其客户端IP算一个哈希值,随后的请求中,哈希值相同的会被分配到同一个后端服务器 | 解决会话保持问题,但会导致负载不均衡。注意会话保持是开发的事情。 |
动态调度算法 | ||
---|---|---|
fair | 根据后端节点响应速度分配请求,响应时间短的优先分配 | 需先下载相关模块upstream_fair |
least_conn | 根据连接数分配。哪个机器连接数少就分给哪个 | |
url_hash | 按照访问URL的hash结果来分配请求,让每个URL定向到同一个后端服务器。后端是缓存服务器时效果显著 | 需先安装相关模块 |
一致性hash算法 | 一般用于代理后端为缓存服务的场景 | nginx不支持。tengine支持 |
加权轮询的例子
upstream lb.xxx.com{
server 172.16.1.7:9999 weight=3; #//实测这样配置是先一次web01,再两次web02(1:2)
server 172.16.1.8:9999 weight=6;
}
server {
listen 80;
server_name lb.xxx.com;
location / {
proxy_pass http://lb.xxx.com;
include /etc/nginx/conf.d/proxy_params;
}
}
ip_hash的例子
upstream lb.xxx.com{
server 172.16.1.7:9999;
server 172.16.1.8:9999;
server 172.16.1.9:9999;
}
server {
listen 80;
server_name lb.xxx.com;
location / {
proxy_pass http://lb.xxx.com;
include /etc/nginx/conf.d/proxy_params;
}
}
注意用ip_hash时不要再写入weight和backup两个参数,即使写了也不会生效
扫描二维码
收获更多精彩
Andrew
感谢您的支持!