后端是两台tomcat服务器,我们简称为node1 和node2,访问地址分别是 http://192.168.1.2:8080 和 http://192.168.1.4:8080
前端使用nginx来对这两个服务进行负载均衡。
首先下载apahce tomcat7 并在192.168.1.4和192.168.1.2上进行部署(可以分别修改两台服务器上部署的文件的index.jsp 用来区分node1和node2)
node1:
node2:
下载 nginx server(目前稳定版是1.4.4),解压之后双击 nginx.exe启动
conf目录下的nginx.conf文件是nginx的配置文件,我们在这里配置负载均衡
下面给出配置文件,
http {
include mime.types;
default_type application/octet-stream;
sendfile on;
keepalive_timeout 65;
upstream localhost{
#这里指定多个源服务器,ip:端口,80端口的话可写可不写
server 192.168.1.2:8080;
server 192.168.1.4:8080;
}
server {
listen 80;
server_name localhost;
location / {
#启动代理
proxy_pass http://localhost;
}
}
}
其中的upstream localhost这一项在原先的配置文件里边没有,需要加上。
确保node1和node2两个节点可用,然后启动nginx 访问 http://localhost nginx就会在node1和node2上做负载均衡。页面上会随机显示 NODE1或NODE2
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· AI与.NET技术实操系列:基于图像分类模型对图像进行分类
· go语言实现终端里的倒计时
· 如何编写易于单元测试的代码
· 10年+ .NET Coder 心语,封装的思维:从隐藏、稳定开始理解其本质意义
· .NET Core 中如何实现缓存的预热?
· 分享一个免费、快速、无限量使用的满血 DeepSeek R1 模型,支持深度思考和联网搜索!
· 25岁的心里话
· 基于 Docker 搭建 FRP 内网穿透开源项目(很简单哒)
· ollama系列01:轻松3步本地部署deepseek,普通电脑可用
· 按钮权限的设计及实现