jmeter-分布式部署之负载机的设置
本文分三个部分:
1、windows下负载机的配置
2、Linux下负载机的配置
3、遇到的问题
********************************************************************************
JMeter分布式执行原理如下图所示:
前提:
在调度机上安装JDK(我们这里使用1.8版本的)+Jmeter(3.3)
参考文档:http://www.cnblogs.com/beginner-boy/p/7707255.html
一、windows下负载机的配置(执行机)
1、在执行机上安装相同版本的JDk和Jmeter(参考调度机的安装)
注意:JDK和Jmeter都要配置环境变量
Jmeter 环境变量的配置:
在系统环境变量中添加:
JMETER_HOME
C:\jmeter\apache-jmeter-3.3\bin
在path系统变量中添加如下配置:
%JMETER_HOME%\bin;
2、在执行机上自定义端口号
1、进入Jmeter的bin目录,找到Jmeter.properties文件,打开该文件修改如下两个配置项,比如修改端口号为:1355(默认端口号为:1099)
server_port=1355
server.rmi.localport=1355
(记得取消注释)
2、启动执行机上的Jmeter-server.bat,如下图,端口号已经修改为:1355
3、在调度机上添加远程的负载机
进入Jmeter的bin目录,找到Jmeter.properties文件,进行如下配置:
4、在调度机上打开,Jmeter,如下图即可启动远程的负载机
5、验证:
启动后如果运行正常,在调度机上可以看到远端负载机的执行结果,如下图:
在执行机上有如下显示:
二、linux下负载机的配置
1、在Linux下安装同调度机相同的JDK和Jmeter版本
JDK环境变量的配置参考如下:http://www.cnblogs.com/beginner-boy/p/7748409.html
Jmeter的环境变量配置,
export PATH=/opt/apache-jmeter-3.3/bin/:$PATH(配置文件位置:/etc/profile)
如下图:
验证:Jmeter -v
2、在执行机上自定义端口号
1、进入Jmeter的bin目录,找到Jmeter.properties文件,打开该文件修改如下两个配置项,比如修改端口号为:1355(默认端口号为:1099)
server_port=1355
server.rmi.localport=1099
2、启动执行机上的Jmeter-server.bat,命令:./jmeter-server -Djava.rmi.server.hostname=192.168.0.199,如下图,端口号已经修改为:1099
3、在调度机上添加远程的负载机
进入Jmeter的bin目录,找到Jmeter.properties文件,进行如下配置:
4、在调度机上打开,Jmeter,如下图即可启动远程的负载机
5、验证:
启动后如果运行正常,在调度机上可以看到远端负载机的执行结果,如下图:
在执行机上有如下显示:
三、错误总结
1、Linux下Jmeter-server启动失败,如下图:
解决办法:在启动Jmeter-server的时候加上如下参数,完成命令如下:
./jmeter-server -Djava.rmi.server.hostname=192.168.0.199
2、调度机报如下错误:
解决办法:
将执行机上的端口设置为固定端口即可(在之前的部署中已经说明如何自定义端口了,参考上文)
3、启动Jmeter报错
解决问题:
在执行机上重新启动Jmeter-server服务(我的测试环境这样是可以解决的,如果你的环境解决不了,请仔细查看执行机上的Jmeter-server.log中的报错信息)
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 如何编写易于单元测试的代码
· 10年+ .NET Coder 心语,封装的思维:从隐藏、稳定开始理解其本质意义
· .NET Core 中如何实现缓存的预热?
· 从 HTTP 原因短语缺失研究 HTTP/2 和 HTTP/3 的设计差异
· AI与.NET技术实操系列:向量存储与相似性搜索在 .NET 中的实现
· 周边上新:园子的第一款马克杯温暖上架
· Open-Sora 2.0 重磅开源!
· .NET周刊【3月第1期 2025-03-02】
· 分享 3 个 .NET 开源的文件压缩处理库,助力快速实现文件压缩解压功能!
· Ollama——大语言模型本地部署的极速利器