尚硅谷nginx教程-5nginx配置示例-负载均衡
通过增加服务器的数量,然后将请求分发到各个服务器上,将原来的请求集中到单个服务器的情况改为将请求分发到多个服务器上,将负载分发到不同的服务器,也就是我们所说的负载均衡。
实现效果:浏览器地址栏输入地址:http://IP地址/edu/a.html,平均到8080和8081端口中
1.准备工作
1.准备2台tomcat服务器,一台8080,一台8081
2.在2台tomcat的webapps目录下,创建a.html文件用于测试
8080/a.html
<!DOCTYPE html>
<html>
<head>
<meta charset="utf-8">
</head>
<body>
<h1>8080</h1>
</body>
</html>
8081/a.html
<!DOCTYPE html>
<html>
<head>
<meta charset="utf-8">
</head>
<body>
<h1>8081</h1>
</body>
</html>
2.配置nginx
worker_processes 1;
events {
worker_connections 1024;
}
http {
include mime.types;
default_type application/octet-stream;
#log_format main '$remote_addr - $remote_user [$time_local] "$request" '
# '$status $body_bytes_sent "$http_referer" '
# '"$http_user_agent" "$http_x_forwarded_for"';
#access_log logs/access.log main;
sendfile on;
#tcp_nopush on;
#keepalive_timeout 0;
keepalive_timeout 65;
#gzip on;
# 负载均衡1
upstream myserver {
server IP地址:8080;
server IP地址:8081;
}
server {
listen 80;
server_name IP地址;
#charset koi8-r;
#access_log logs/host.access.log main;
# 负载均衡2
location / {
root html;
proxy_pass http://myserver;
index index.html index.htm;
}
error_page 500 502 503 504 /50x.html;
location = /50x.html {
root html;
}
}
# 反向代理
server {
listen 9001;
server_name IP地址;
location ~ /edu/ {
proxy_pass http://127.0.0.1:8080;
}
location ~ /vod/ {
proxy_pass http://127.0.0.1:8081;
}
}
3.验证
频繁访问 http://IP地址/edu/a.html,返回的结果既有8080,也有8081
4.负载均衡规则
随着互联网信息的爆炸性增长,负载均衡(load balane)已经不再是一个陌生的话题。顾名思义,负载均衡即是将负载推到不同的服务单元,既保证服务的可用性,又保证响应足够快,给用户很好的体验。快速增长的访问量和数据流量催生了各式各样的负载均衡产品,很多专业的负载均衡硬件提供了很好的功能,但却价格不菲。这使得负载软件大受欢迎。nginx就是其中的一个,在Linux下有nginx,LVS,Haproxy等服务,可以提高负载均衡服务,而且nginx提供了以下几种分配模式(策略)。
4.1 轮询(默认)
每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器down掉,能自动剔除。
4.2 weight
weight代表权重,默认为1,权重越高,被分配的客户端越多。
指定轮询几率,weight和访问几率成正比,用于后端服务器性能不均的情况。
upstream server_pool{
server 172.168.0.1:8080 weight=10;
server 172.168.0.1:8081 weight=5;
}
4.3 ip_hash
每个请求按访问IP的hash结果分配,这样每个访客固定访问一个后端服务器,可以解决session的问题。例如
upstream server_pool{
ip_hash;
server 172.168.0.1:8080;
server 172.168.0.1:8081;
}
4.4 fair方式
按后端服务器的响应时间来分配请求,响应时间短的优先分配。
upstream server_pool{
server 192.168.5.21:8080;
server 192.168.5.21:8081;
fair;
}
访问网址,负载均衡分发到8080和8081。先访问8080,没有访问到,再去访问8081,看谁的响应时间短,就先给谁。