Tair总述

Tair 是淘宝自己开发的一个分布式 key/value 存储引擎。tair 分为持久化和非持久化两种使用方式。非持久化的 tair 可以看成是一个分布式缓存。持久化的 tair 将数据存放于磁盘中。为了解决磁盘损坏导致数据丢失,tair 可以配置数据的备份数目,tair 自动将一份数据的不同备份放到不同的主机上,当有主机发生异常,无法正常提供服务的时候,其余的备份会继续提供服务。

Tair的总体结构

Tair作为一个分布式系统,是由一个中心控制节点和一系列的服务节点组成。我们称中心控制节点为config server,服务节点是data server。Config server负责管理所有的data server,维护data server的状态信息。Data server对外提供各种数据服务,并以心跳的形式将自身状况汇报给config server。Config server是控制节点,而且是单点,目前采用一主一备的形式来保证其可靠性。所有的data server的地位都是等价的。

Tair的负载均衡

Tair的分布采用的是一致性哈希算法。对于所有的key,分配到Q个桶中,桶是负载均衡和数据迁移的基本单位。Config server根据一定的策略把每个桶指派到不同的data server上。因为数据按照key做hash算法,所以可以认为每个桶中的数据基本是平衡的,保证了桶分布的均衡性,就保证了数据分布的均衡性。

增加或者减少data server的时候会发生什么

当有某台data server故障不可用的时候,config server会发现这个情况,config server负责重新计算一张新的桶在data server上的分布表,将原来由故障机器服务的桶的访问重新指派到其它的data server中。这个时候,可能会发生数据的迁移。比如原来由data server A负责的桶,在新表中需要由B负责。而B上并没有该桶的数据,那么就将数据迁移到B上来。同时config server会发现哪些桶的备份数目减少了,然后根据负载情况在负载较低的data server上增加这些桶的备份。

当系统增加data server的时候,config server根据负载,协调data server将它们控制的部分桶迁移到新的data server上。迁移完成后调整路由。当然,系统中可能出现减少了某些data server,同时增加另外的一些data server。处理原理同上。每次路由的变更,config server都会将新的配置信息推给data server。在客户端访问data server的时候,会发送客户端缓存的路由表的版本号。如果data server发现客户端的版本号过旧,则会通知客户端去config server取一次新的路由表。如果客户端访问某台data server 发生了不可达的情况(该 data server可能宕机了),客户端会主动去config server取新的路由表。

发生迁移的时候data server如何对外提供服务

当迁移发生的时候,我们举个例子,假设data server A 要把桶 3,4,5 迁移给data server B。因为迁移完成前,客户端的路由表没有变化,客户端对 3,4,5的访问请求都会路由到A。

现在假设3还没迁移,4正在迁移中,5已经迁移完成。那么如果是对3的访问,则没什么特别,跟以前一样。如果是对5的访问,则A会把该请求转发给B,并且将B的返回结果返回给客户。如果是对4的访问,在A处理,同时如果是对4的修改操作,会记录修改log。当桶4迁移完成的时候,还要把log发送到B,在B上应用这些log。最终A、B上对于桶4来说,数据完全一致才是真正的迁移完成。

当然,如果是因为某data server宕机而引发的迁移,客户端会收到一张中间临时状态的分配表。这张表中,把宕机的data server所负责的桶临时指派给有其备份data server来处理。这个时候,服务是可用的,但是负载可能不均衡。当迁移完成之后,才能重新达到一个新的负载均衡的状态。

桶在data server上分布时的策略

程序提供了两种生成分配表的策略,一种叫做负载均衡优先,一种叫做位置安全优先

我们先看负载优先策略。当采用负载优先策略的时候,config server会尽量的把桶均匀的分布到各个data server上。

所谓尽量是指在不违背下面的原则的条件下尽量负载均衡

  • 每个桶必须有COPY_COUNT份数据
  • 一个桶的各份数据不能在同一台主机上。

位置安全优先原则是说,在不违背上面两个原则的条件下,还要满足位置安全条件,然后再考虑负载均衡。位置信息的获取是通过 _pos_mask(参见安装部署文档中关于配置项的解释) 计算得到。一般我们通过控制 _pos_mask 来使得不同的机房具有不同的位置信息。那么在位置安全优先的时候,必须被满足的条件要增加一条,一个桶的各份数据不能都位于相同的一个位置(不在同一个机房)。

这里有一个问题,假如只有两个机房,机房1中有100台data server,机房2中只有1台data server。这个时候,机房2中data server的压力必然会非常大。于是这里产生了一个控制参数_build_diff_ratio(参见安装部署文档)。当机房差异比率大于这个配置值时,config server也不再build新表。

机房差异比率是如何计出来的呢?首先找到机器最多的机房,不妨设为RA,data server数量是SA。那么其余的data server的数量记做SB。则机房差异比率=|SA – SB|/SA。因为一般我们线上系统配置的COPY_COUNT是3。在这个情况下,不妨设只有两个机房RA和RB,那么两个机房什么样的data server数量是均衡的范围呢?当差异比率小于 0.5的时候是可以做到各台data server负载都完全均衡的.这里有一点要注意,假设RA机房有机器6台,RB有机器3台。那么差异比率 = 6 - 3/6 = 0.5。这个时候如果进行扩容,在机房A增加一台data server,扩容后的差异比率 = 7 - 3/7 = 0.57。也就是说,只在机器数多的机房增加data server会扩大差异比率。如果我们的_build_diff_ratio配置值是0.5。那么进行这种扩容后,config server会拒绝再继续build新表。

Tair的一致性和可靠性问题

分布式系统中的可靠性和一致性是无法同时保证的,因为我们必须允许网络错误的发生。tair采用复制技术来提高可靠性,并且为了提高效率做了一些优化,事实上在没有错误发生的时候,tair提供的是一种强一致性。但是在有data server发生故障的时候,客户有可能在一定时间窗口内读不到最新的数据。甚至发生最新数据丢失的情况。

Tair提供的客户端

Tair的server端是C++写的,因为server和客户端之间使用socket通信,理论上只要可以实现socket操作的语言都可以直接实现成tair客户端。目前实际提供的客户端有java 和 C++。客户端只需要知道config server的位置信息就可以享受tair集群提供的服务了。

主要的性能数据

待补充

系统架构

一个Tair集群主要包括3个必选模块:config server、data server和client,以及一个可选模块:invalid server。

通常情况下,一个集群中包含2台config server及多台data server。两台config server互为主备并通过维护和data server之间的心跳获知集群中存活可用的data server,构建数据在集群中的分布信息(对照表)。Data server负责数据的存储,并按照config server的指示完成数据的复制和迁移工作。Client在启动的时候,从config server获取数据分布信息,根据数据分布信息和相应的data server交互完成用户的请求。Invalid server主要负责对等集群的删除和隐藏操作,保证对等集群的数据一致。

从架构上看,config server的角色类似于传统应用系统的中心节点,整个集群服务依赖于config server的正常工作。但实际上相对来说,tair的config server是非常轻量级的,当正在工作的服务器宕机的时候另外一台会在秒级别时间内自动接管。而且,如果出现两台服务器同时宕机的最恶劣情况,只要应用服务器没有新的变化,tair依然服务正常。而有了config server这个中心节点,带来的好处就是应用在使用的时候只需要配置config server的地址(现在可以直接配置Diamond key),而不需要知道内部节点的情况。

1 Config Server的功能

  • 通过维护和data server心跳来获知集群中存活节点的信息。

  • 根据存活节点的信息来构建数据在集群中的分布表。

  • 提供数据分布表的查询服务。

  • 调度data server之间的数据迁移、复制。

2 Data Server的功能

  • 提供存储引擎

  • 接受client的put/get/remove等操作

  • 执行数据迁移,复制等

  • 插件:在接受请求的时候处理一些自定义功能

  • 访问统计

3 InvalidServer的功能

  • 接收来自client的invalid/hide等请求后,对属于同一组的集群(双机房独立集群部署方式)做delete/hide操作,保证同一组集群的一致。

  • 集群断网之后的,脏数据清理。

  • 访问统计。

4 client的功能

  • 在应用端提供访问Tair集群的接口。

  • 更新并缓存数据分布表和invalidserver地址等。

  • LocalCache,避免过热数据访问影响tair集群服务。

  • 流控

存储引擎与应用场景

Tair经过这两年的发展演进,除了应用于cache缓存外,在存储(持久化)上支持的应用需求也越来越广泛。现在主要有mdb,rdb,ldb三种存储引擎。

1 mdb

  • 定位于cache缓存,类似于memcache。
  • 支持k/v存取和prefix操作。

mdb的应用场景

在实际业务中,大部分当缓存用(后端有DB之类的数据源)。

也可用做大访问少量临时数据的存储(例如session登录,防攻击统计等)。

集团内绝对多数cache服务都是采用的tair mdb。

2 rdb

  • 定位于cache缓存,采用了redis的内存存储结构。
  • 支持k/v,list,hash,set,sortedset等数据结构。

rdb的应用场景

适用于需要高速访问某些数据结构的应用,例如SNS中常见的的粉丝存储就可以采用set等结构;或者存储一个商品的多个属性(hashmap);高效的消息队列(list)等。现在有30个左右的应用在使用rdb服务。

3 ldb

定位于高性能存储,并可选择内嵌mdb cache加速,这种情况下cache与持久化存储的数据一致性由tair进行维护。 支持k/v,prefix等数据结构。今后将支持list,hash,set,sortedset等redis支持的数据结构。

ldb的应用场景

1)存储,里面可以细分如下场景:

  • 持续大数据量的存入读取,类似淘宝交易快照。
  • 高频度的更新读取,例如计数器,库存等。
  • 离线大批量数据导入后做查询。参见fastdump。

2)也可以用作cache:

数据量大,响应时间敏感度不高的cache需求可以采用。例如天猫实时推荐。

基本概念

1 configID

唯一标识一个tair集群,每个集群都有一个对应的configID,在当前的大部分应用情况下configID是存放在diamond中的,对应了该集群的config server地址和group name。业务在初始化tair client的时候需要配置此ConfigID。

2 namespace

又称area, 是tair中分配给应用的一个内存或者持久化存储区域, 可以认为应用的数据存在自己的namespace中。

同一集群(同一个configID)中namespace是唯一的。

通过引入namespace,我们可以支持不同的应用在同集群中使用相同的key来存放数据,也就是key相同,但内容不会冲突。一个namespace下是如果存放相同的key,那么内容会受到影响,在简单K/V形式下会被覆盖,rdb等带有数据结构的存储引擎内容会根据不同的接口发生不同的变化。

3 quota配额

对应了每个namespace储存区的大小限制,超过配额后数据将面临最近最少使用(LRU)的淘汰。

持久化引擎(ldb)本身没有配额,ldb由于自带了mdb cache,所以也可以设置cache的配额。超过配额后,在内置的mdb内部进行淘汰。

3.1 配额是怎样计算的

配额大小直接影响数据的命中率和资源利用效率,业务方需要给出一个合适的值,通常的计算方法是评估在保证一定命中率情况下所需要的记录条数,这样配额大小即为: 记录条数 * 平均单条记录大小。

3.2 管理员如何配置配额

单份数据情况下,业务提供的配额就是需要配置在Tair系统中的配额。但对于多备份,在系统中实际计算的配额为: 业务配额 * 备份数。

4 expireTime — 过期时间

expiredTime 是指数据的过期时间,当超过过期时间之后,数据将对应用不可见,这个设置同样影响到应用的命中率和资源利用率。不同的存储引擎有不同的策略清理掉过期的数据。调用接口时,expiredTime单位是秒,可以是相对时间(比如:30s),也可以是绝对时间(比如:当天23时,转换成距1970-1-1 00:00:00的秒数)。

  • 小于0,不更改之前的过期时间
  • 如果不传或者传入0,则表示数据永不过期;
  • 大于0小于当前时间戳是相对时间过期;
  • 大于当前时间戳是绝对时间过期;

5 version

Tair中存储的每个数据都有版本号,版本号在每次更新后都会递增,相应的,在Tair put接口中也有此version参数,这个参数是为了解决并发更新同一个数据而设置的,类似于乐观锁。

很多情况下,更新数据是先get,修改get回来的数据,然后put回系统。如果有多个客户端get到同一份数据,都对其修改并保存,那么先保存的修改就会被后到达的修改覆盖,从而导致数据一致性问题,在大部分情况下应用能够接受,但在少量特殊情况下,这个是我们不希望发生的。

比如系统中有一个值”1”,现在A和B客户端同时都取到了这个值。之后A和B客户端都想改动这个值,假设A要改成12,B要改成13,如果不加控制的话,无论A和B谁先更新成功,它的更新都会被后到的更新覆盖。Tair引入的version机制避免了这样的问题。刚刚的例子中,假设A和B同时取到数据,当时版本号是10,A先更新,更新成功后,值为12,版本为11。当B更新的时候,由于其基于的版本号是10,此时服务器会拒绝更新,返回version error,从而避免A的更新被覆盖。B可以选择get新版本的value,然后在其基础上修改,也可以选择强行更新。

5.1 如何获取到当前key的version

get接口返回的是DataEntry对象,该对象中包含get到的数据的版本号,可以通过getVersion()接口获得该版本号。在put时,将该版本号作为put的参数即可。 如果不考虑版本问题,则可设置version参数为0,系统将强行覆盖数据,即使版本不一致。

5.2 version是如何改变的

Version改变的逻辑如下:

  • 如果put新数据且没有设置版本号,会自动将版本设置成1。
  • 如果put是更新老数据且没有版本号,或者put传来的参数版本与当前版本一致,版本号自增1。
  • 如果put是更新老数据且传来的参数版本与当前版本不一致,更新失败,返回VersionError。
  • put时传入的version参数为0,则强制更新成功,版本号自增1。

5.3 version返回不一致的时候,该如何处理

如果更新所基于的version和系统中当前的版本不一致,则服务器会返回ResultCode.VERERROR。 这时你可以重新get数据,然后在新版本的数据上修改;或者设置version为0重新请求,以达到强制更新的效果,应用可以根据自身对数据一致性的要求在这两种策略间进行选择。

5.4 version具体使用案例

如果应用有10个client会对key进行并发put,那么操作过程如下:

  • get key。如果get key成功,则进入步骤2;如果数据不存在,则进入步骤3。

  • 在调用put的时候将get key返回的verison重新传入put接口。服务端根据version是否匹配来返回client是否put成功。

  • get key数据不存在,则新put数据。此时传入的version必须不是0和1,其他的值都可以(例如1000,要保证所有client是一套逻辑)。因为传入0,tair会认为强制覆盖;而传入1,第一个client写入会成功,但是新写入时服务端的version以0开始计数啊,所以此时version也是1,所以下一个到来的client写入也会成功,这样造成了冲突

5.5 version分布式锁

Tair中存在该key,则认为该key所代表的锁已被lock;不存在该key,在未加锁。操作过程和上面相似。业务方可以在put的时候增加expire,已避免该锁被长期锁住。

当然业务方在选择这种策略的情况下需要考虑并处理Tair宕机带来的锁丢失的情况。

5.6 什么情况下需要使用version

业务对数据一致性有较高的要求,并且访问并发高,那么通过version可以避免数据的意外结果。

如果不关心并发,那么建议不传入version或者直接传0。





posted @ 2016-08-04 13:19  KiteRunner  阅读(2531)  评论(0编辑  收藏  举报