locust多任务按顺序执行
背景
想要低并发验证不同通道的响应时间,即不同的域名访问同一资源,需要验证不同的域名响应时长。
实践1
写了个简单的locustfile.py
内容如下:
# locustfile.py
from locust import HttpUser, task, TaskSet, between
class MyUser(HttpUser):
wait_time = between(0.1, 1.0) # 每个请求间可能等待的时间
@task
def fun1(self):
self.client.request_name='方法1'
url='http://api1.sample.com/api/file?path=xxxx'
self.req(url)
@task
def fun2(self):
self.client.request_name='方法2'
url='http://api2.sample.com/api/file?path=xxxx'
self.req(url)
@task
def fun3(self):
self.client.request_name='方法3'
url='http://api3.sample.com/api/file?path=xxxx'
self.req(url)
@task
def fun4(self):
self.client.request_name='方法4'
url='http://api4.sample.com/api/file?path=xxxx'
self.req(url)
def req(self,url):
with self.client.get(url, headers=headers, catch_response=True) as r:
if r.status_code != 200:
r.failure(f'{urlparse(url).netloc} 返回码非200!')
elif 'json' in r.headers.get('Content-Type'): # 因为是流媒体,请求失败可能会返回异常的json信息,所以增加判断响应头
r.failure(f'{urlparse(url).netloc} 请求失败,返回内容非文件')
执行 locust --headless -u 4 -t 5m MyUser -H https://www.baiduu.com/
即并发4用户执行5分钟。然后分析了请求的链路发现本应耗时比较短的域名平均耗时居然比较高,研发说是因为四个域名同时执行,DNS解析可能耗时有问题。。。。
就是说要分别单独执行,然后再重新分析耗时。所以问题来了,如果要单独执行每个域名,每次需要注释掉其他不需要执行的三个任务,最主要的是单独执行出来的报告只能展示一个请求的图表,不利于分析,为了解决这俩问题,重新实现。
实践2
改写方法如下:
# locustfile.py
from locust import HttpUser, task, TaskSet, between
from locust.exception import StopUser
class MyUser(HttpUser):
wait_time = between(0.1, 1.0) # 每个请求间可能等待的时间
# 启动前执行,所以等于是单独测试了不同的域名低并发的请求响应时长
def on_start(self):
# 当Locust用户开始时只执行此方法一次
self.execute_task_for_duration(self.fun1, 5 * 60)
self.execute_task_for_duration(self.fun2, 5 * 60)
self.execute_task_for_duration(self.fun3, 5 * 60)
self.execute_task_for_duration(self.fun4, 5 * 60)
raise StopUser # 并不会继续执行其他的任务了,按顺序执行完上面的任务就结束
def execute_task_for_duration(self, task_function, duration_seconds):
end_time = time.time() + duration_seconds
while time.time() < end_time:
task_function() # 调用任务函数
time.sleep(self.user.wait_time()) # 等待指定时间
@task
def fun1(self):
self.client.request_name='方法1'
url='http://api1.sample.com/api/file?path=xxxx'
self.req(url)
@task
def fun2(self):
self.client.request_name='方法2'
url='http://api2.sample.com/api/file?path=xxxx'
self.req(url)
@task
def fun3(self):
self.client.request_name='方法3'
url='http://api3.sample.com/api/file?path=xxxx'
self.req(url)
@task
def fun4(self):
self.client.request_name='方法4'
url='http://api4.sample.com/api/file?path=xxxx'
self.req(url)
def req(self,url):
with self.client.get(url, headers=headers, catch_response=True) as r:
if r.status_code != 200:
r.failure(f'{urlparse(url).netloc} 返回码非200!')
elif 'json' in r.headers.get('Content-Type'): # 因为是流媒体,请求失败可能会返回异常的json信息,所以增加判断响应头
r.failure(f'{urlparse(url).netloc} 请求失败,返回内容非文件')
最后的图表如下:
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· TypeScript + Deepseek 打造卜卦网站:技术与玄学的结合
· 阿里巴巴 QwQ-32B真的超越了 DeepSeek R-1吗?
· 【译】Visual Studio 中新的强大生产力特性
· 10年+ .NET Coder 心语 ── 封装的思维:从隐藏、稳定开始理解其本质意义
· 【设计模式】告别冗长if-else语句:使用策略模式优化代码结构