CAP定理,Eureka的工作原理以及它与ZooKeeper的区别
转载:https://blog.csdn.net/weixin_42508926/article/details/102931695
CAP定理
在一个分布式系统中,Consistency(一致性),Availability(可用性),Partition tolerance(分区容错性),三者不可兼得。
一致性(“C”) : 在分布式系统中的所有数据备份,在同一时刻是否有相同的值。(所有的节点在同一时间的数据完全一致,节点数量越多,同步消耗的时间也就越多)
可用性(“A”): 集群负载过大,集群整体是否能相应客户端的读写要求。(服务一直可用,而且是正常的相应时间)
分区容错性(“P”): 分区容错性就是高可用性,当一个或者多个节点崩溃,并不会影响其他节点。(1000个节点,崩溃了几个节点,并不会影响服务,机器越多越好)
CAP理论就是说,在一个分布式存储系统中,最多只能实现上面的两点。而且由于当前的网络硬件肯定会出现延迟和丢包的问题,所以分区容错性我们是必须要实现的,所以我们只能在一致性和可用性之间进行权衡。
ps: 在分布式的系统中,P是要必须满足,所以只能在CA之间选择
没有最好的选择,最好的选择是根据业务场景来进行架构设计
如果选择一致性,则选择zookeeper,例如金融行业
如果要求可用性,则选择Eureka,例如电商系统
Eureka和zookeeper的区别
Eureka的工作原理
Eureka包含两个组件,分别是Eureka server和Eureka client,为了方便解释,下面统称为server和client,client是一个Java客户端,用于简化和server的交互。
- server提供服务发现的能力,服务启动时,会向server注册自己的信息。
- 微服务启动后,会周期性地向Eureka Server发送心跳(默认周期为30秒)以续约自己的信息。如果server在一定时间内没有接收到某个微服务节点的心跳,server将会注销该微服务节点(默认90秒)。但是在正式生产环境中,网络通信会面临各种问题,比如微服务状态正常,但是由于网络分区故障时,server的注销服务实例会让大部分微服务不可用,所以可以通过自我保护机制。(自我保护机制:当节点进入自我保护机制,不在注销任何的微服务,当网络故障恢复后,节点自动退出自我保护机制。可以通过配置eureka.server.enable-self-preservation=true开启自我保护机制)
- .每个server同时也是client,多个server之间通过复制的方式完成服务注册表的同步;
- client会缓存server中的信息。即使所有的server节点都宕掉,服务消费者依然可以使用缓存中的信息找到服务提供者。
主要区别
-
Zookeeper保证CP
当向注册中心查询服务列表时,我们可以容忍注册中心返回的是几分钟以前的注册信息,但不能接受服务直接down掉不可用。也就是说,服务注册功能对可用性的要求要高于一致性。但是zk会出现这样一种情况,当master节点因为网络故障与其他节点失去联系时,剩余节点会重新进行leader选举。问题在于,选举leader的时间太长,30 ~ 120s, 且选举期间整个zk集群都是不可用的,这就导致在选举期间注册服务瘫痪。在云部署的环境下,因网络问题使得zk集群失去master节点是较大概率会发生的事,虽然服务能够最终恢复,但是漫长的选举时间导致的注册长期不可用是不能容忍的。 -
Eureka保证AP
Eureka看明白了这一点,因此在设计时就优先保证可用性。Eureka各个节点都是平等的,几个节点挂掉不会影响正常节点的工作,剩余的节点依然可以提供注册和查询服务。而Eureka的客户端在向某个Eureka注册或时如果发现连接失败,则会自动切换至其它节点,只要有一台Eureka还在,就能保证注册服务可用(保证可用性),只不过查到的信息可能不是最新的(不保证强一致性)。除此之外,Eureka还有一种自我保护机制,如果在15分钟内超过85%的节点都没有正常的心跳,那么Eureka就认为客户端与注册中心出现了网络故障,此时会出现以下几种情况:
Eureka不再从注册列表中移除因为长时间没收到心跳而应该过期的服务
Eureka仍然能够接受新服务的注册和查询请求,但是不会被同步到其它节点上(即保证当前节点依然可用)
当网络稳定时,当前实例新的注册信息会被同步到其它节点中
因此, Eureka可以很好的应对因网络故障导致部分节点失去联系的情况,而不会像zookeeper那样使整个注册服务瘫痪。