nginx+tomcat 配置负载均衡集群

原文链接:https://my.oschina.net/bgq365/blog/870569

一、Hello world
1、前期环境准备

    准备两个解压版tomcat,如何同时启动两个tomcat,请看我的另一篇文章《一台机器同时启动多个tomcat》。(这两个tomcat不要和你原来的tomcat放在一个文件夹里,不然会报错,自己尝试的时候郁闷了好久····)
    nginx官网下载解压版nginx。
    创建一个简单的web项目。为了直观的区分访问的哪个tomcat,在页面写上标记8081、8082。


    分别部署到对应的tomcat下。如图:​​​​


2、配置nginx

进入nginx-1.10.1\conf路径,修改配置文件nginx.conf。

1、配置服务器组,在http{}节点之间添加upstream配置。(注意不要写localhost,不然访问速度会很慢)

1 upstream nginxDemo {
2     server 127.0.0.1:8081;   #服务器地址1
3     server 127.0.0.1:8082;   #服务器地址2
4 }


2、修改nginx监听的端口号80,改为8080。

1 server {
2     listen       8080;
3     ......
4 }


3、在location\{}中,利用proxy_pass配置反向代理地址;此处“http://”不能少,后面的地址要和第一步upstream定义的名称保持一致。

1     location / {
2             root   html;
3             index  index.html index.htm;
4             proxy_pass http://nginxDemo; #配置方向代理地址
5         }


如下图:

3、启动nginx和tomcat,访问

我是Windows系统,所以直接在nginx-1.10.1目录下双击nginx.exe即可。

可在任务管理器中查看

最后在浏览器输入地址:http://localhost:8080/nginxDemo/index.jsp,每次访问就会轮流访问tomcat了(如果F5刷新不管用,建议试试鼠标指针放到地址栏,点击Enter键)。


到这里,一个非常简单的负载均衡就配置完成了,是不是很简单呢,O(∩_∩)O哈哈~
二、nginx负载均衡策略
1、轮询(默认)

每个web请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器down掉,能自动剔除。

1   upstream nginxDemo {
2         server 127.0.0.1:8081;
3         server 127.0.0.1:8082;
4     }

 

2、最少链接


web请求会被转发到连接数最少的服务器上。

1     upstream nginxDemo {
2         least_conn;
3         server 127.0.0.1:8081;
4         server 127.0.0.1:8082;
5     }

3、weight 权重

指定轮询几率,weight和访问比率成正比,用于后端服务器性能不均的情况,weight默认是1。

1    #服务器A和服务器B的访问比例为:2-1;比如有3个请求,前两个会访问A,三个访问B,其它规则和轮询一样。
2     upstream nginxDemo {
3         server 127.0.0.1:8081 weight=2; #服务器A
4         server 127.0.0.1:8082; #服务器B
5     }


4、ip_hash

每个请求按访问ip的hash值分配,这样同一客户端连续的Web请求都会被分发到同一服务器进行处理,可以解决session的问题。当后台服务器宕机时,会自动跳转到其它服务器。

1     upstream nginxDemo {
2         ip_hash;
3         server 127.0.0.1:8081 weight=2; #服务器A
4         server 127.0.0.1:8082; #服务器B
5     }


基于weight的负载均衡和基于ip_hash的负载均衡可以组合在一起使用。
5、url_hash(第三方)

url_hash是nginx的第三方模块,nginx本身不支持,需要打补丁。

nginx按访问url的hash结果来分配请求,使每个url定向到同一个后端服务器,后端服务器为缓存服务器、文件服务器、静态服务器时比较有效。缺点是当后端服务器宕机的时候,url_hash不会自动跳转的其他缓存服务器,而是返回给用户一个503错误。

1     upstream nginxDemo {
2         server 127.0.0.1:8081; #服务器A
3         server 127.0.0.1:8082; #服务器B
4         hash $request_url;
5     }


6、fair(第三方)

按后端服务器的响应时间来分配请求,响应时间短的优先分配。

1     upstream nginxDemo {
2         server 127.0.0.1:8081; #服务器A
3         server 127.0.0.1:8082; #服务器B
4         fair;
5     }




posted on   胡子就不刮  阅读(168)  评论(0编辑  收藏  举报

编辑推荐:
· 开发者必知的日志记录最佳实践
· SQL Server 2025 AI相关能力初探
· Linux系列:如何用 C#调用 C方法造成内存泄露
· AI与.NET技术实操系列(二):开始使用ML.NET
· 记一次.NET内存居高不下排查解决与启示
阅读排行:
· 被坑几百块钱后,我竟然真的恢复了删除的微信聊天记录!
· 没有Manus邀请码?试试免邀请码的MGX或者开源的OpenManus吧
· 【自荐】一款简洁、开源的在线白板工具 Drawnix
· 园子的第一款AI主题卫衣上架——"HELLO! HOW CAN I ASSIST YOU TODAY
· Docker 太简单,K8s 太复杂?w7panel 让容器管理更轻松!

导航

< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5
点击右上角即可分享
微信分享提示