我们现在接口的线上问题主要有三个,第一:启动时有些机器会有短暂的线程池满。第二:并发量上不去,怕服务被打死,不敢调高限流阈值。第三:499超时现象。
今天已上线
今天终于把那天说的全量执行时间延长,从图中可以看到,中午12点发版之后,内存使用率有明显下降,晚上是接口调用高峰,会有上浮,但是总体来看还是下降了。
再来看看上线后的gc情况。目前是高峰期,gc控制在十几秒一次,minor gc得到了控制。
但是这个调优对线上问题一个也不能说是解决,具体真正的作用要靠观察。期望的效果是高峰时cpu峰值不会猛增。这样就可以考虑提高限流阈值了。第一个问题,启动时有些机器会有短暂的线程池满。今天发版倒是没有发生,原因是我将dubbo的接口暴露时间延长到66秒。但是8台provider都没有发生线程池满,说明我分析出问题的原因是对的。
接下来的方案
1>将servlet加载本地缓存改为spring task方式(个人时间和精力问题,如果部门内部可以找到人和我一起做就做,否则视情况而定)
上次开会我说单开一个servlet来加载本地缓存开销很大,不合理,应该改为spring task方式。德伟男神说别的部门也有这么做的。阿里的阳哥也说servlet没问题。好吧,牛人都这么说,我自己思维逻辑没组织好之前就不和你们争辩了。今天我梳理好了,来具体说一说。
单看servlet的源码,除了初始化过程,其他的过程似乎是有请求过来才调用, 没有请求就不调用,开销不是很大。但是请不要忽略了servlet放到resin这个servlet容器之后的生命周期。servlet容器是基于观察者模式设计的,所有的容器都会继承Lifecycle接口,它管理着容器的整个生命周期,所有容器的修改和状态的改变都会由它去通知已经注册的观察者(Listener)。所以这个开销在这里,我只是想执行一个定时任务,容器却给了一个专门的监听线程来监听。
当时用这个来做,我猜测开发者的意图是想一开始就先加载这个,尽量预加载。我测试过,spring task是spring初始化一完成就开始执行。我单用new Thread().start和spring task同时初始化一个map。谁先执行到是随机的。所以,大可不必担心。
但是如果今天的调整,cpu使用得到控制,瓶颈不在这里的话,这个不是当务之急。
2>将增量和全量从数据库定时拉取更新本地缓存的方式改为单独后台任务更新redis缓存,provider服务初始从redis取数据,只一个阻塞线程监听redis订阅事件来增量更新本地缓存(个人时间和精力问题,如果部门内部可以找到人和我一起做就做,否则视情况而定)
这个我已经在离线项目中进行了性能测试。至少可以将初始加载速度提高10倍,但不稳定,主要取决于网络和网跳network hoops。
根据数据的量级,主要细分为两种方案:
- 针对总数为500条以下的小数据,本地缓存可以直接采用redis的哈希结构。单有一个key保存最后更新时间(数据库的unix timestamp,采用服务器时间,各个服务器之间时间不同步就不准了)。后台定时更新redis哈希内的数据。有数据变更时,更新最后更新时间,发一个发布消息带有更新的id,通知更新。provider服务初始启动时获取redis中最后更新时间和哈希数据,直接反序列化整个redis哈希结构,减少了数据库操作(这个也是需要字符串反序列化成对象的,持久层容器实现)和将list转成map的时间和cpu操作。看到服务重启cpu瞬间峰值,长成下面的样子。provider运行时收到更新,从redis中获取此最新的ID值更新本地缓存。
- 针对500条以上的大数据,区别在于此时redis哈希结构效率极低,直接用我自己存成带压缩的二进制方式(此带压缩的二进制序列化和反序列化方法我上传到了epiphany项目中,欢迎大家体验我的开源项目:http://github.com/xiexiaojing/epiphany)进行序列化和反序列化整个全量。provider运行时收到更新,然后可以去数据库取本地的最后更新时间到当前时间的增量,更新本地缓存。下面是一个2w多个键的本地缓存数据,可以看到其数据库操作时间就已经远远超过从redis中取数据的时间。
但是如果今天的调整,cpu使用得到控制,瓶颈不在这里的话,这个不是当务之急。
3>dubbo 业务线程数减小
我看到provider服务的dubbo业务线程数设置了800,而dubbo默认是200,一般的项目也就是100。我很理解,感性上去想业务线程数越大不是处理能力越强吗?其实还真不是。前段时间我在想,为什么我们一般的499超时都是单台单台的报,不是几台一起报,按理说平均每台1k多的QPS,采用的是random负载均衡策略不应该是这个效果。问题就在这里了。如果我们设置了业务线程数是200,因为我们的iothread数是0,那么来了800个请求其他600个请求就会分到其他服务器上去。而我们设置800个线程,压力都集中在这一个上面,负载均衡策略没有很好的发挥作用。还有就是线程数多了,处理能力下降,响应时间会变慢。处理能力为啥会下降呢?线程的上下文切换啊。而且各种资源消耗都很大。如果降低这个业务线程数,还可以增加栈内存和TLAB,提高处理速度。栈内存为啥能提高处理速度?栈内分配,逃逸分析,内联优化等等。TLAB是线程本地分配缓存,是新生代的一小块区域,大小可调。是线程专享的。不加锁,速度快。这个做了,对499会有显著效果。
还需要考虑的
接口还存在一些memcached超时。这就是为什么我搭建了一套redis集群。需要对缓存用数据库和redis做压力分散。我在弄一个叫cloudrise的开源项目是spring data redis的升级版,要实现的主要目标是减少network hoops和集成一些高效的序列化和反序列化方法,如protobuf。另外还考虑在redis前加一个类似于memcached的moxi代理的本地缓存和管道key合并提高效率。项目地址是:https://github.com/xiexiaojing/cloudrise。现在还没有完全实现,但是各种command接口有很详细的中文注释,我觉得用这个代码来学习redis比我现在看过的redis的书要好很多。介绍的很详细。行到水穷处,坐看云起时,欢迎使用cloudrise~~
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 | package com.brmayi.cloudrise.connection.commands; import java.util.List; import java.util.Properties; import com.brmayi.cloudrise.connection.RedisClusterNode; import com.brmayi.cloudrise.core.types.RedisClientInfo; /** * <pre> * ********************************************************************************************************* * 版权所有(C) 2017 cloudrise * 保留所有权利。 * .==. .==. * //'^\\ //^'\\ * // ^^\(\__/)/^ ^^\\ * //^ ^^ ^/6 6\ ^^^ \\ * //^ ^^ ^/( .. )\^ ^^ \\ * // ^^ ^/\|v""v|/\^^ ^ \\ * // ^^/\/ / '~~' \ \/\^ ^\\ * ---------------------------------------- * HERE BE DRAGONS WHICH CAN CREATE MIRACLE * ********************************************************************************************************* * 基本信息 * ********************************************************************************************************* * 系统:cloudrise * 支持:jdk1.7及以上 redis2.6.0及以上 * 模块:cloudrise commands * 功能:提供对Redis的服务器操作抽象(所有的key和value都不能为null),每一个方式对应于一个redis命令。需指定节点 * 编码:静儿(xiexiaojing@qq.com) * 时间: 2017.08.01 * ********************************************************************************************************* * 修改历史 * ********************************************************************************************************* * 修改者 修改内容 修改时间 * 静儿(987489055@qq.com) 新建 2017.08.01 * ********************************************************************************************************* * </pre> */ public interface RedisClusterServerCommands extends RedisServerCommands { /** * 执行一个 AOF文件 重写操作。重写会创建一个当前 AOF 文件的体积优化版本。 * 即使 BGREWRITEAOF 执行失败,也不会有任何数据丢失,因为旧的 AOF 文件在 BGREWRITEAOF 成功之前不会被修改。 * 重写操作只会在没有其他持久化工作在后台执行时被触发,也就是说: * 如果 Redis 的子进程正在执行快照的保存工作,那么 AOF 重写的操作会被预定(scheduled),等到保存工作完成之后再执行 AOF 重写。 * 在这种情况下, BGREWRITEAOF 的返回值仍然是 OK ,但还会加上一条额外的信息,说明 BGREWRITEAOF 要等到保存操作完成之后才能执行。 * 在 Redis 2.6 或以上的版本,可以使用 INFO 命令查看 BGREWRITEAOF 是否被预定。 * 如果已经有别的 AOF 文件重写在执行,那么 BGREWRITEAOF 返回一个错误,并且这个新的 BGREWRITEAOF 请求也不会被预定到下次执行。 * 从 Redis 2.4 开始, AOF 重写由 Redis 自行触发, BGREWRITEAOF 仅仅用于手动触发重写操作。 * 时间复杂度:O(N), N 为要追加到 AOF 文件中的数据数量。 * @param node 节点 * @since 1.3 * @see <a href="http://redis.io/commands/bgrewriteaof">Redis Documentation: BGREWRITEAOF</a> */ void bgReWriteAof(RedisClusterNode node); /** * 在后台异步(Asynchronously)保存当前数据库的数据到磁盘。 * BGSAVE 命令执行之后立即返回 OK ,然后 Redis fork 出一个新子进程,原来的 Redis 进程(父进程)继续处理客户端请求,而子进程则负责将数据保存到磁盘,然后退出。 * 客户端可以通过 LASTSAVE 命令查看相关信息,判断 BGSAVE 命令是否执行成功。 * @param node 节点 * @see <a href="http://redis.io/commands/bgsave">Redis Documentation: BGSAVE</a> */ void bgSave(RedisClusterNode node); /** * 返回最近一次 Redis 成功将数据保存到磁盘上的时间,以 UNIX 时间戳格式表示。 * 时间复杂度:O(1) * @param node 节点 * @return 一个 UNIX 时间戳。 * @see <a href="http://redis.io/commands/lastsave">Redis Documentation: LASTSAVE</a> */ Long lastSave(RedisClusterNode node); /** * SAVE 命令执行一个同步保存操作,将当前 Redis 实例的所有数据快照(snapshot)以 RDB 文件的形式保存到硬盘。 * 一般来说,在生产环境很少执行 SAVE 操作,因为它会阻塞所有客户端,保存数据库的任务通常由 BGSAVE 命令异步地执行。 * 然而,如果负责保存数据的后台子进程不幸出现问题时, SAVE 可以作为保存数据的最后手段来使用。 * 时间复杂度:O(N), N 为要保存到数据库中的 key 的数量。 * @param node 节点 * @see <a href="http://redis.io/commands/save">Redis Documentation: SAVE</a> */ void save(RedisClusterNode node); /** * 返回当前数据库的 key 的数量。 * 时间复杂度:O(1) * @param node 节点 * @return 返回当前数据库的 key 的数量。 * @see <a href="http://redis.io/commands/dbsize">Redis Documentation: DBSIZE</a> */ Long dbSize(RedisClusterNode node); /** * 清空当前数据库中的所有 key。此命令从不失败。 * 时间复杂度:O(1) * @param node 节点 * @see <a href="http://redis.io/commands/flushdb">Redis Documentation: FLUSHDB</a> */ void flushDb(RedisClusterNode node); /** * 清空整个 Redis 服务器的数据(删除所有数据库的所有 key )。此命令从不失败。 * @param node 节点 * @see <a href="http://redis.io/commands/flushall">Redis Documentation: FLUSHALL</a> */ void flushAll(RedisClusterNode node); /** * Redis Info 命令以一种易于理解和阅读的格式,返回关于 Redis 服务器的各种信息和统计数值。 * 命令返回信息示例: * <pre> * # Server * redis_version:3.2.9 * redis_git_sha1:00000000 * redis_git_dirty:0 * redis_build_id:a6f5b91b81bb8d8c * redis_mode:cluster * os:Linux 2.6.32-926.504.30.3.letv.el6.x86_64 x86_64 * arch_bits:64 * multiplexing_api:epoll * gcc_version:4.4.7 * process_id:17612 * run_id:5644a791339db3e67cfb4ad4c529fee624e83326 * tcp_port:6379 * uptime_in_seconds:1299970 * uptime_in_days:15 * hz:10 * lru_clock:8405316 * executable:/letv/apps_install/redis-3.2.9/redis0/./redis-server * config_file:/letv/apps_install/redis-3.2.9/redis0/redis.conf * # Clients * connected_clients:5 * client_longest_output_list:0 * client_biggest_input_buf:0 * blocked_clients:0 * * # Memory * used_memory:1452392 * used_memory_human:1.39M * used_memory_rss:3137536 * used_memory_rss_human:2.99M * used_memory_peak:1491800 * used_memory_peak_human:1.42M * total_system_memory:135210921984 * total_system_memory_human:125.92G * used_memory_lua:37888 * used_memory_lua_human:37.00K * maxmemory:0 * maxmemory_human:0B * maxmemory_policy:noeviction * mem_fragmentation_ratio:2.16 * mem_allocator:jemalloc-4.0.3 * * # Persistence * loading:0 * rdb_changes_since_last_save:0 * rdb_bgsave_in_progress:0 * rdb_last_save_time:1500277631 * rdb_last_bgsave_status:ok * rdb_last_bgsave_time_sec:0 * rdb_current_bgsave_time_sec:-1 * aof_enabled:1 * aof_rewrite_in_progress:0 * aof_rewrite_scheduled:0 * aof_last_rewrite_time_sec:0 * aof_current_rewrite_time_sec:-1 * aof_last_bgrewrite_status:ok * aof_last_write_status:ok * aof_current_size:25302 * aof_base_size:25302 * aof_pending_rewrite:0 * aof_buffer_length:0 * aof_rewrite_buffer_length:0 * aof_pending_bio_fsync:0 * aof_delayed_fsync:0 * * # Stats * total_connections_received:15305 * total_commands_processed:86898 * instantaneous_ops_per_sec:0 * total_net_input_bytes:2016530 * total_net_output_bytes:859156 * instantaneous_input_kbps:0.00 * instantaneous_output_kbps:0.00 * rejected_connections:0 * sync_full:0 * sync_partial_ok:0 * sync_partial_err:0 * expired_keys:0 * evicted_keys:0 * keyspace_hits:0 * keyspace_misses:0 * pubsub_channels:0 * pubsub_patterns:0 * latest_fork_usec:292 * migrate_cached_sockets:0 * * # Replication * role:slave * master_host:10.127.95.184 * master_port:6381 * master_link_status:down * master_last_io_seconds_ago:-1 * master_sync_in_progress:0 * slave_repl_offset:1 * master_link_down_since_seconds:1298428 * slave_priority:100 * slave_read_only:1 * connected_slaves:0 * master_repl_offset:0 * repl_backlog_active:0 * repl_backlog_size:1048576 * repl_backlog_first_byte_offset:0 * repl_backlog_histlen:0 * * # CPU * used_cpu_sys:1273.56 * used_cpu_user:715.02 * used_cpu_sys_children:0.00 * used_cpu_user_children:0.00 * * # Cluster * cluster_enabled:1 * * # Keyspace * db0:keys=6,expires=0,avg_ttl=0 * </pre> * @param node 节点 * @return 信息如上 * @see <a href="http://redis.io/commands/info">Redis Documentation: INFO</a> */ Properties info(RedisClusterNode node); /** * Load server information for given {@code selection}. * 命令示例如下: * <pre> * 10.183.96.194:6379> info memory * </pre> * 命令返回结果如下: * # Memory * used_memory:1452392 * used_memory_human:1.39M * used_memory_rss:3137536 * used_memory_rss_human:2.99M * used_memory_peak:1491800 * used_memory_peak_human:1.42M * total_system_memory:135210921984 * total_system_memory_human:125.92G * used_memory_lua:37888 * used_memory_lua_human:37.00K * maxmemory:0 * maxmemory_human:0B * maxmemory_policy:noeviction * mem_fragmentation_ratio:2.16 * mem_allocator:jemalloc-4.0.3 * @param node 节点 * @return 信息如上 * @see <a href="http://redis.io/commands/info">Redis Documentation: INFO</a> */ Properties info(RedisClusterNode node, String section); /** * SHUTDOWN 命令执行以下操作: * 停止所有客户端 * 如果有至少一个保存点在等待,执行 SAVE 命令 * 如果 AOF 选项被打开,更新 AOF 文件 * 关闭 redis 服务器(server) * 如果持久化被打开的话, SHUTDOWN 命令会保证服务器正常关闭而不丢失任何数据。 * * 另一方面,假如只是单纯地执行 SAVE 命令,然后再执行 QUIT 命令,则没有这一保证 —— 因为在执行 SAVE 之后、执行 QUIT 之前的这段时间中间,其他客户端可能正在和服务器进行通讯,这时如果执行 QUIT 就会造成数据丢失。 * * SAVE 和 NOSAVE 修饰符 * 通过使用可选的修饰符,可以修改 SHUTDOWN 命令的表现。比如说: * 执行 SHUTDOWN SAVE 会强制让数据库执行保存操作,即使没有设定(configure)保存点 * 执行 SHUTDOWN NOSAVE 会阻止数据库执行保存操作,即使已经设定有一个或多个保存点(你可以将这一用法看作是强制停止服务器的一个假想的 ABORT 命令) * @param node 节点 * @see <a href="http://redis.io/commands/shutdown">Redis Documentation: SHUTDOWN</a> */ void shutdown(RedisClusterNode node); /** * CONFIG GET 命令用于取得运行中的 Redis 服务器的配置参数(configuration parameters), * 在 Redis 2.4 版本中, 有部分参数没有办法用 CONFIG GET 访问,但是在最新的 Redis 2.6 版本中,所有配置参数都已经可以用 CONFIG GET 访问了。 * CONFIG GET 接受单个参数 parameter 作为搜索关键字,查找所有匹配的配置参数,其中参数和值以“键-值对”(key-value pairs)的方式排列。 * 比如执行 CONFIG GET s* 命令,服务器就会返回所有以 s 开头的配置参数及参数的值: * * @param pattern 不能为空 * @return 结果示例如下: * <pre> * 1) "slave-announce-ip" * 2) "" * 3) "set-max-intset-entries" * 4) "512" * 5) "slowlog-log-slower-than" * 6) "10000" * 7) "slowlog-max-len" * 8) "128" * 9) "slave-priority" * 10) "100" * 11) "slave-announce-port" * 12) "0" * 13) "slave-serve-stale-data" * 14) "yes" * 15) "slave-read-only" * 16) "yes" * 17) "stop-writes-on-bgsave-error" * 18) "yes" * 19) "supervised" * 20) "no" * 21) "syslog-facility" * 22) "local0" * 23) "save" * 24) "900 1 300 10 60 10000" * 25) "slaveof" * 26) "10.127.95.184 6381" * </pre> * @param node 节点 * @see <a href="http://redis.io/commands/config-get">Redis Documentation: CONFIG GET</a> */ Properties getConfig(RedisClusterNode node, String pattern); /** * CONFIG SET 命令可以动态地调整 Redis 服务器的配置(configuration)而无须重启。 * 你可以使用它修改配置参数,或者改变 Redis 的持久化(Persistence)方式。 * CONFIG SET 可以修改的配置参数可以使用命令 CONFIG GET * 来列出,所有被 CONFIG SET 修改的配置参数都会立即生效。 * @param node 节点 * @param param 参数 * @param value 要设定的值 * @see <a href="http://redis.io/commands/config-set">Redis Documentation: CONFIG SET</a> */ void setConfig(RedisClusterNode node, String param, String value); /** * 重置 INFO 命令中的某些统计数据,包括: * Keyspace hits (键空间命中次数) * Keyspace misses (键空间不命中次数) * Number of commands processed (执行命令的次数) * Number of connections received (连接服务器的次数) * Number of expired keys (过期key的数量) * Number of rejected connections (被拒绝的连接数量) * Latest fork(2) time(最后执行 fork(2) 的时间) * The aof_delayed_fsync counter(aof_delayed_fsync 计数器的值) * @param node 节点 * @see <a href="http://redis.io/commands/config-resetstat">Redis Documentation: CONFIG RESETSTAT</a> */ void resetConfigStats(RedisClusterNode node); /** * 返回当前服务器时间。 * @param node 节点 * @return TIME命令是一个包含两个字符串的列表: 第一个字符串是当前时间(以 UNIX 时间戳格式表示),而第二个字符串是当前这一秒钟已经逝去的微秒数。返回值是前一个 * @since 1.1 * @see <a href="http://redis.io/commands/time">Redis Documentation: TIME</a> */ Long time(RedisClusterNode node); /** * 以人类可读的格式,返回所有连接到服务器的客户端信息和统计数据。 * @param node 节点 * @return 所有连接到服务器的客户端信息和统计数据。 * @since 1.3 * @see <a href="http://redis.io/commands/client-list">Redis Documentation: CLIENT LIST</a> */ List<RedisClientInfo> getClientList(RedisClusterNode node); } |
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】凌霞软件回馈社区,博客园 & 1Panel & Halo 联合会员上线
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】博客园社区专享云产品让利特惠,阿里云新客6.5折上折
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 一个奇形怪状的面试题:Bean中的CHM要不要加volatile?
· [.NET]调用本地 Deepseek 模型
· 一个费力不讨好的项目,让我损失了近一半的绩效!
· .NET Core 托管堆内存泄露/CPU异常的常见思路
· PostgreSQL 和 SQL Server 在统计信息维护中的关键差异
· DeepSeek “源神”启动!「GitHub 热点速览」
· 微软正式发布.NET 10 Preview 1:开启下一代开发框架新篇章
· C# 集成 DeepSeek 模型实现 AI 私有化(本地部署与 API 调用教程)
· DeepSeek R1 简明指南:架构、训练、本地部署及硬件要求
· 2 本地部署DeepSeek模型构建本地知识库+联网搜索详细步骤