单机如何实现管理百万节点的心跳服务?
楔子
我们以一个可管理百万节点集群的心跳服务作为实战案例,看看所有高性能服务的设计思路。
首先解释下什么是心跳服务。集群中的节点如果宕机,那么管理服务必须及时发现,并做相应的容灾处理,比如将宕机节点的业务迁移到新的虚拟机上等等。怎么做到及时发现呢?可以要求每个节点定时上报心跳包,考虑到网络报文的延迟,如果管理服务在几个上报周期内未收到心跳,则认为节点宕机。当新节点加入集群后,心跳服务也可以及时识别并告知管理服务。
这就是心跳服务要解决的核心问题,虽然很简单,可是如果集群规模达到百万台虚拟机或者微服务进程,这就不再简单了。多核 CPU、内存使用效率、网络带宽时延积等都必须纳入你的考虑,因为此时心跳包占用的网络带宽已经接近网卡上限,仅调动一颗 CPU 的计算力去处理就会大量丢包,百万级的对象、网络连接也很容易造成内存 OOM。甚至判断宕机的算法都要重新设计,降低时间复杂度后才能够应对超大集群的心跳管理。
解决这种集群规模下的性能问题,需要深入掌握底层基础知识,用系统化的全局思维去解决问题,这也是程序员薪资差异的重要分水岭。接下来,我们先实现更高效的核心算法,再设计高并发服务的架构,最后再来看传输层协议的选择。
如何设计更快的宕机判断算法?
通过心跳包找到宕机的节点需要一套算法,比如用 for 循环做一次遍历,找到停止上报心跳的节点就可以实现,然而当管理的对象数量级很大时,算法复杂度会严重影响程序性能,所以遍历算法此时并不可取。我们先分析下这个算法的时间复杂度。
如果用红黑树(这里用红黑树是因为它既支持遍历,也可以实现对数时间复杂度的查询操作)存放节点及其最近一次上报时间,那么,新节点上报心跳被发现的流程,时间复杂度仅为 O(logN),这是查询红黑树的成本。寻找宕机服务的流程,需要对红黑树做全量遍历,用当前时间去比较每个节点的上次心跳时间,时间复杂度就是 O(N)。
如果业务对时间灵敏度要求很高,就意味着需要频繁地执行 O(N) 级的遍历,当 N 也就是节点数量很大时,耗时就很可观了。而且寻找宕机服务和接收心跳包是两个流程,如果它们都在单线程中执行,那么寻找宕机服务的那段时间就不能接收心跳包,会导致丢包。如果使用多线程并发执行,因为两个流程都需要操作红黑树,所以要使用到互斥锁,而当这两个流程争抢锁的频率很高时,性能也会急剧下降。
其实这个算法的根本问题在于,判断宕机的流程做了大量的重复工作。比如,节点每隔 1 秒上报一次心跳,而考虑到网络可能丢包,故 5 秒内失去心跳就认为宕机,这种情况下,如果节点 A 在第 10 秒时失去心跳,那么第 11、12、13、14 这 4 秒对节点 A 的遍历都是多余的,只有第 15 秒对节点 A 的遍历才有意义。于是,每次遍历平均浪费了 4/5 的计算量。
如何设计快速的宕机判断算法呢?其实,这是一个从一堆主机中寻找宕机服务的信息题。根据香农的理论,引入更多的信息,才能减少不确定性降低信息熵,从而减少计算量。就像心跳包间是有时间顺序的,上面的宕机判断算法显然忽略了接收到它们的顺序。比如节点 A 的上次心跳包距现在 4 秒了,而节点 B 距现在只有 1 秒,显然不应同等对待。
于是,我们引入存放心跳包的先入先出队列,这就保存了心跳包的时序关系。新的心跳包进入队列尾部,而老的心跳包则从队列首部退出。这样,寻找宕机服务时,只要看队列首部最老的心跳包,距现在是否超过 5 秒,如果超过 5 秒就认定宕机,同时把它取出队列,否则证明队列中不存在宕机服务,维持队列不变。
当然,这里并没有解决如何发现新主机的问题。我们还需要一个能够执行高效查询的容器,存放所有主机及其状态。红黑树虽然不慢,但我们不再需要遍历容器,所以可以选择更快的、查询时间复杂度为 O(1) 的哈希表存放主机信息。
当然,队列中的心跳包并不是只能从队首删除,否则判断宕机流程的时间复杂度仍然是 O(N)。实际上,每当收到心跳包时,如果对应主机的上一个心跳包还在队列中,那么可以直接把它从队列中删除。显然,计算在线节点何时宕机,只需要最新的心跳包,老的心跳包没有必要存在。因此,这个队列为每个主机仅保留最新的那个心跳包。如下图所示:
这样,判断宕机的速度会非常快,它的计算量等于实际发生宕机的主机数量。同时,接收心跳包并发现新主机的流程,因为只需要做一次哈希表查询,时间复杂度也只有 O(1)。
新算法通过以空间换时间的思想,虽然使用了更加占用空间的哈希表,并新增了有序队列容器,但将宕机和新主机发现这两个流程都优化到了常量级的时间复杂度。尤其是宕机流程的计算量非常小,它仅与实际宕机服务的数量有关,这就允许我们将宕机判断流程插入到心跳包的处理流程中,以微观上的分时任务实现宏观上的并发,同时也避免了对哈希表的加锁。
如何设计高并发架构?
有了核心算法,还需要充分利用服务器资源的架构,才能实现高并发。
一颗 1GHZ 主频的 CPU,意味着一秒钟只有 10 亿个时钟周期可以工作,如果心跳服务每秒接收到 100 万心跳包,就要求它必须在 1000 个时钟周期内处理完一个心跳包。这无法做到,因为每一个汇编指令的执行需要多个时钟周期,一条高级语言的语句又由多条汇编指令构成,而中间件提供的反序列化等函数又需要很多条语句才能完成。另外,内核从网卡上读取报文,执行协议分析需要的时钟周期也要算到这 1000 个时钟周期里。
因此,选择只用一颗 CPU 为核心的单线程开发模式,一定会出现计算力不足,不能及时接收报文从而使得缓冲区溢出的问题,最终导致大量丢包。所以,我们必须选择多线程或者多进程开发模式。多进程之间干扰更小,但内存不是共享的,数据同步较为困难,因此案例中我们还是选择多线程开发模式。
但使用多线程后我们需要解决 3 个问题。
第一是负载均衡,我们应当把心跳包尽量均匀分配到不同的工作线程上处理。比如,接收网络报文的线程基于主机名或者 IP 地址,用哈希算法将心跳包分发给工作线程处理,这样每个工作线程只处理特定主机的心跳,相互间不会互相干扰,从而可以无锁编程。
第二是多线程同步。分发线程与工作线程间可以采用生产者 - 消费者模型传递心跳包,然而多线程间传递数据要加锁,为了减少争抢锁对系统资源的消耗,需要做到以下两点:
由于工作线程多过分发线程(接收心跳包消耗的资源更少),所以每个工作线程都配发独立的缓冲队列及操作队列的互斥锁;
为避免线程执行主动切换,必须使用自旋锁;
第三要利用好 CPU 缓存的问题,CPU 缓存对计算速度的影响很大,如果线程频繁地切换 CPU 会导致缓存命中率下降,降低性能,此时将线程绑定到特定的 CPU 就是一个解决方案。
这样,通过上述的多线程架构就可以有效地使用 CPU。当然,除了 CPU,内存的使用效率也很重要。TCMalloc 相比 Linux 默认的 PtMalloc2 内存池,在多线程下分配小块内存的速度要快得多,所以对于心跳服务应当改用 TCMalloc 申请内存。而且,如果心跳包对象的格式已经固定,你还可以建立一个心跳包资源池,循环往复的使用,这进一步减少了构造、销毁心跳包对象所消耗的计算力。
由于服务重启后一个心跳周期内就可以获得所有心跳包,所以并不需要将数据持久化到磁盘上。
如何选择心跳包网络协议?
最后我们再来看看心跳包的协议该选择 TCP 还是 UDP 实现。
网络报文的长度是受限的,MTU(Maximum Transmission Unit)定义了最大值。比如以太网中 MTU 是 1500 字节,如果 TCP 或者 UDP 试图传送大于 1500 字节的报文,IP 协议就会把报文拆分后再发到网络中,并在接收方组装回原来的报文。然而,IP 协议并不擅长做这件事,拆包组包的效率很低,因此 TCP 协议宁愿自己拆包。所以,如果心跳包长度小于 MTU,那么 UDP 协议是最佳选择。如果心跳包长度大于 MTU,那么最好选择 TCP 协议,面对复杂的 TCP 协议,还需要解决以下问题。
首先,一台服务器到底能同时建立多少 TCP 连接?要回答这个问题,得先从 TCP 四元组谈起,它唯一确定一个 TCP 连接。TCP 四元组分别是 "源 IP、目的 IP、源端口、目的端口",其中前两者在 IP 头部中,后两者在 TCP 头部中。由于 IPv4 地址为 4 个字节、端口为 2 个字节,所以当服务器 IP 地址和监听端口固定时,并发连接数的上限则是 \(2^{32 + 16}\)。
当然,这么高的并发连接需要很多条件,其中之一就是增加单个进程允许打开的最大句柄数(包括操作系统允许的最大句柄数 /proc/sys/fs/file-nr),因为 Linux 下每个连接都要用掉一个文件句柄。当然,作为客户端的主机如果想用足 \(2^{16}\) 个端口,还得修改 ip_local_port_range 配置,扩大客户端的端口范围:
net.ipv4.ip_local_port_range = 32768 ~ 60999
其次,基于 TCP 协议实现百万级别的高并发,必须使用基于事件驱动的全异步开发模式,而且 TCP 协议的默认配置并没有考虑高并发场景,所以我们还得在以下 4 个方面优化 TCP 协议:
三次握手建立连接的过程需要优化
四次挥手关闭连接的过程也需要优化
依据网络带宽时延积重新设置 TCP 缓冲区
优化拥塞控制算法
最后还有一个问题需要我们考虑。网络中断时并没有任何信息通知服务器,此时该如何发现并清理服务器上的这些僵死连接呢?答案是 KeepAlive 机制,它允许服务器定时向客户端探测连接是否存活,其中每隔 tcp_keepalive_time 秒执行一次探测。
net.ipv4.tcp_keepalive_time = 7200
每次探测的最大等待时间是 tcp_keepalive_intvl 秒。
net.ipv4.tcp_keepalive_intvl = 75
超时后,内核最多尝试 tcp_keepalive_probes 次,仍然没有反应就会及时关闭连接。
net.ipv4.tcp_keepalive_probes = 9
当然,如果在应用层通过心跳能及时清理僵死 TCP 连接,效果会更好。
从上述优化方案可见,TCP 协议的高并发优化方案还是比较复杂的,这也是享受 TCP 优势时我们必须要付出的代价。
总结
关于高并发的设计思路,核心算法对性能的影响最大,为了设计出高效的算法,我们必须分析出时间复杂度,充分寻找、利用已知信息,减少算法的计算量。在心跳服务这个案例中,利用好心跳包的时序,就可以把计算宕机的时间复杂度从 O(N) 降为 O(1)。
有了好的算法,还需要好的架构,才能高效地调动系统资源。当摩尔定律在 CPU 频率上失效后,CPU 都在向多核发展,所以高性能必须充分使用多核的计算力。此时,我们需要谨慎设计多线程间的负载均衡和数据同步,尽量减少访问共享资源带来的损耗。选择与业务场景匹配的内存池也很重要,对于 RPS 上百万的服务来说,申请内存的时间不再是一个忽略项。
选择网络协议时,如果消息长度大于 MTU,那么选择 TCP 更有利,但 TCP 解决了流控、可靠性等很多问题,优化起来较为困难。对于不要求可靠传输,长度通常不大的心跳包来说,UDP 协议通常是更好的选择。
如果觉得文章对您有所帮助,可以请囊中羞涩的作者喝杯柠檬水,万分感谢,愿每一个来到这里的人都生活愉快,幸福美满。
微信赞赏
支付宝赞赏