四、locust 阶梯加压
# *_*coding:utf-8 *_* # @Author : zyb from locust import HttpUser, TaskSet, task, constant,FastHttpUser from locust import LoadTestShape class UserTasks(TaskSet): @task def get_root(self): self.client.get("/GetTztAll/") class WebsiteUser(FastHttpUser): wait_time = constant(0.5) tasks = [UserTasks] class StagesShape(LoadTestShape): #duration:运行时间,注意的地方就是 他是总时间,不是固定。 #users:用户数 #spawn_rate:每秒孵化数 stages = [ {"duration": 30, "users": 10, "spawn_rate": 10}, {"duration": 80, "users": 50, "spawn_rate": 10}, ] def tick(self): run_time = self.get_run_time() for stage in self.stages: if run_time < stage["duration"]: tick_data = (stage["users"], stage["spawn_rate"]) return tick_data return None if __name__ == "__main__": import os file_path = os.path.abspath(__file__) os.system(f"locust -f {file_path} --host=http://127.0.0.1:8000")
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 周边上新:园子的第一款马克杯温暖上架
· Open-Sora 2.0 重磅开源!
· 分享 3 个 .NET 开源的文件压缩处理库,助力快速实现文件压缩解压功能!
· Ollama——大语言模型本地部署的极速利器
· [AI/GPT/综述] AI Agent的设计模式综述