nginx负载均衡初体验
什么是负载均衡?简单通俗地理解就是把工作尽量平均分配到每一个干活的实体上,避免吃大锅饭导致系统崩溃。
怎样才能做到尽可能公平公正的分配呢?Nginx提供了一下负载均衡策略:
轮询:默认策略,每个请求按时间顺序逐⼀分配到不同的服务器,如果某⼀个服务器下线,能⾃动剔除。
weight:weight代表权重,默认每⼀个负载的服务器都为1,权重越⾼那么被分配的请求越多(⽤于服务器性能不均衡的场景)。
ip_hash:每个请求按照ip的hash结果分配,每⼀个客户端的请求会固定分配到同⼀个⽬标服务器处理,可以解决session问题。
本文采取简单的轮询策略进行nginx的负载均衡处理。
在反向代理(参考nginx反向代理初体验 - 池塘里洗澡的鸭子 - 博客园 (cnblogs.com))的基础上增加负载均衡处理的nginx设置:
1、虚拟机上增加8082监听端口的tomcat服务器(直接复制8081的即可)
2、修改nginx设置
3、重载nginx服务:nginx -s reload
4、验证:
刷新:
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· AI与.NET技术实操系列(二):开始使用ML.NET
· 记一次.NET内存居高不下排查解决与启示
· 探究高空视频全景AR技术的实现原理
· 理解Rust引用及其生命周期标识(上)
· 浏览器原生「磁吸」效果!Anchor Positioning 锚点定位神器解析
· DeepSeek 开源周回顾「GitHub 热点速览」
· 物流快递公司核心技术能力-地址解析分单基础技术分享
· .NET 10首个预览版发布:重大改进与新特性概览!
· AI与.NET技术实操系列(二):开始使用ML.NET
· 单线程的Redis速度为什么快?