阿智 mikeve@163.com

偶尔推荐点儿歌,这钢琴加电吉他特棒

导航

SpringCloud zuul 网关限流分析

最近项目中 spring cloud zuul 运用到限流功能,打算配置一下就直接使用,不过在压测与调优过程中遇到一些没有预测到的问题,附上排查与解析结果

 

yml、pom配置

强烈推荐,按最新github上的文档配,可以避免搜到一些已经废弃不用的配置方式!

https://github.com/marcosbarbero/spring-cloud-zuul-ratelimit

我的一些配置,可以直接套用:

zuul:
  routes:
  #路由、重试等zuul其他配置省略
  #限流
  ratelimit:
    enabled: true # 开启限流功能
    behind-proxy: true # 开启则限流与业务访问是异步的,相当于rateLimitFilter先放过;默认是false
    repository: REDIS # 可选REDIS、CONSUL、JPA等,老版本还有本地内存可选
    policy-list:
      myProject1:
        - limit: 5 # 这种配置方式相当于:10分钟内允许5个请求访问/api/test/info接口
          refresh-interval: 10
          type:
            - url_pattern=/api/test/info
      myProject2:
        - limit: 3000
          refresh-interval: 1 # 更常见的配置是这种,一秒允许3k个,相当于配qps限制
          type:
            - url_pattern=/api/test2/info
- limit: 300 refresh-interval: 1 # 如果同一个服务有多个需要限流的url,可以这样 type: - url_pattern=/api/test2/info2

pom需要:

<dependency>
    <groupId>com.marcosbarbero.cloud</groupId>
    <artifactId>spring-cloud-zuul-ratelimit</artifactId>
    <version>${latest-version}</version>
</dependency>

如果 repository 选择用 REDIS,还需要:

<dependency>
    <groupId>org.springframework.boot</groupId>
    <artifactId>spring-boot-starter-data-redis</artifactId>
</dependency>

启动,检查限流功能生效,并且不影响不限流的其他接口!至此解决了限流有无的问题!

返回处理

我们可能需要对触发限流的情况做监控、报警等,需要识别由限流导致的异常返回

  1. 推荐使用默认的 RateLimiterErrorHandler,直接写自己需要的处理就行
  2. zuul触发限流后会抛出 http 429,可以针对这个错误码对response包装
  3. 也可以在全局异常处理中,判断出现的异常是否是 RateLimitExceededException

其他配置方式 

目前项目中只用到了对特定url的qps限流,zuul ratelimit 还提供对user、http method、url正则等

性能分析

限流配置之前,单实例压测,qps大概能到2500;配个2300的限流,开开心心启动服务,启动压测!

 

WTF!限流对性能的影响已经超过了限流配置本身。。一定是我哪里不对TAT 

开始排查问题,查实现原理

zuul 限流的入口是zuul的 RateLimitPreFilter

其中 rateLimitKeyGenerator.key 所生成的redis key较长,规则为 前缀(默认为springBoot项目名) + : + zuul项目名 + : + matcher(和限流策略有关,这里是URL_PATTERN) + : + matcher(再来一遍)

如果项目名和url较长,可能出现key例如:my-test-project-gateway:my-sub-project:/api/test2/info2:/api/test2/info2

不过监控看redis暂不是短板,继续查

 

限流的实现,通过 rateLimiter.consume 方法

继续往下看,calcRemainingLimit 方法,内部调用了calcRemaining 方法:

原理不难,利用redis incr命令,每次计算当前过期窗口内还剩几次,来决定是否限流,安全又高效

 

但是,上一张图 rateLimiter.consume 方法增加了 synchornized,怀疑是这个原因

其中 redisTemplate.opsForValue().increment(key, usage) 已经没有并发问题了,这里感觉不用再 synchornized +_+*

 

发现也有同僚遇到了这个问题,建议是重写这个类,去掉synchornized

https://github.com/marcosbarbero/spring-cloud-zuul-ratelimit/issues/96

讨论中有人主张去掉synchornized,有人主张保留

决定还是要去掉synchornized,压测

完美!!!

再验证一下对无限流的接口是否无影响,确保可用

其他网关限流方式

目前刚开始接触,也还在探索中,可以一起讨论下

1. spring cloud gateway:

  • 也是成熟的技术,并且大部分文章分析 Finchley版本的 gateway比 zuul 1.x系列的性能和功能整体要好
  • 目前 spring cloud 没集成 Zuul 2.x,虽然zuul 2.x使用了异步无阻塞式的 API,性能改善明显
  • 实现思想很简洁,令牌桶,只有50行lua,其中有4次redis调用
  • 可以通过monitor命令看出:
request_rate_limiter.lua
测试配置为:
redis-rate-limiter.replenishRate: 500 允许每秒500个请求
redis-rate-limiter.burstCapacity: 5000 令牌桶容量5000
1. 查询当前桶里剩余令牌数
1590493327.354684
[0 lua] "get" "request_rate_limiter.{/app/test/info}.tokens"
2. 查询上次取牌的时间
注意:通过当前时间,和上次取牌的时间差,即可在lua中计算出这段时间内新补充进桶里的令牌数,不用每秒真正补充进桶 1590493327.354696 [0 lua] "get" "request_rate_limiter.{/app/test/info}.timestamp"
3. 把这次取的1个令牌,和这段时间内需要重新补充进桶的令牌整合,更新最新令牌数
注意:超时时间为 (brustCapacity/replenishRate)*2,感觉不乘2也行,只要保证超时时间 >= 桶重新装满的时间就够了,乘2是否完全是为了保险? 1590493327.354712 [0 lua] "setex" "request_rate_limiter.{/app/test/info}.tokens" "20" "4999"
4. 更新最新取牌时间 1590493327.354727 [0 lua] "setex" "request_rate_limiter.{/app/test/info}.timestamp" "20" "1590493327"

2. 自己用filter+redis、guava rate limiter等实现

可以做单机缓存、自己定制规则

总结

目前的测试是单机压测,集群下压测或许还会在别的地方遇到瓶颈

单实例配置、zuul进程数和其他配置、redis集群性能、业务代码,都有提升的空间

还需要继续排查与优化

posted on 2020-05-26 15:14  阿智  阅读(1463)  评论(0编辑  收藏  举报