首次公开!阿里云开源PolarDB总体架构和企业级特性
简介:在3月2日的阿里云开源 PolarDB 企业级架构发布会上,阿里云 PolarDB 内核技术专家北侠带来了主题为《PolarDB 总体架构设计和企业级特性》的精彩演讲。
在3月2日的阿里云开源 PolarDB 企业级架构发布会上,阿里云 PolarDB 内核技术专家
北侠带来了主题为《PolarDB 总体架构设计和企业级特性》的精彩演讲。主要分享了存储计算分离架构、HTAP架构、节点高可用架构是PolarDB 可支持的三种架构,PolarDB还具备可用性、高性能、安全的企业级特性。并对PolarDB 总体架构和企业级特性进行展开分析。
直播回顾视频:
以下根据发布会演讲视频内容整理:
PolarDB 是阿里云自主研发的云原生数据库,它的源代码已经全部开源(源码仓库地址:
一、PolarDB总体架构设计
① 扩展性差。增加节点的时候需要先将数据完整复制,花费的时间通常是小时级别甚至更长。
② 可靠性差。主库和备库之间需要采用同步复制,会导致性能下降大概 20% 以上;如果采用异步复制,则会发生数据丢失的风险。
③ 可用性差。主库发生了故障后, HA 会切换到备库。新的备库需要回放大量 redo 日志才能进入可服务的状态,该过程可能需要分钟级别的耗时。
④ 成本高。存储成本会随着节点数目的增加而呈线性增加,此外还需要预留一些资源。
为了彻底解决以上问题,PolarDB提出了云原生的架构,将计算和存储资源解耦。
计算存储分离的架构的优势在于以下几个方面:
① 极致的、弹性的扩展能力:存储和计算能够分别独立地扩容。
② 降低存储成本:那么计算集群扩展到多少个,数据始终只有一份。
③ 易用性:具备分布式的优势和单机数据库的体感,因为每个计算节点都能看到所有数据。对于用户来说,任何一个计算节点就相当于是一个单机数据库。
④ 可靠性比较高:底层共享存储提供了三副本以及秒级快照的功能,为数据库的备份提供了比较便捷的方式。
PolarDB 不仅设计研发了计算存储分离的架构,还在在数据库的模块栈上进行了大量优化。
此外,用户还经常需要对 TP 事务的数据进行复杂的分析查询,比如在夜里做汇总报表和对账。此类查询一般都是一些非常复杂的 SQL ,但并发不高,是典型的 OLAP 场景。
最初 PolarDB 的计算存储分离架构在处理这类复杂的 SQL 时,只能由单个计算节点来计算,无法发挥出计算集群的整体算力,同时也没有办法发挥出存储池大带宽的特性。
① 在原有的 TP 系统外面部署一套 AP 系统,将 TP 的事务数据通过日志导入到 AP 系统。此方案存在的问题在于两个系统之间的延迟比较高,会导致数据的新鲜度不高。另外,部署一套独立的 AP 系统会导致存储和运维的成本增加。
② 在原有的 TP 系统上就地执行 AP 查询,但这势必会造成 TP 和 AP 两种业务互相影响。另外, AP 系统也没有办法做弹性的扩展。
因此, PolarDB 研发了一个基于共享存储的分布式计算引擎,这也是业界首创的解决方案。该方案具备以下优势:
② TP 和 IP 是物理隔离、互相不影响的。由部分计算节点执行单机的引擎来处理高并发的 TP 查询,由另外一部分节点执行分布式的查询引擎来处理复杂的 AP 查询。
③ 具备弹性扩展能力。系统面度一些复杂的 SQL 时,出现算力不够的情况,即可快速增加计算节点,新的节点也可以迅速增加到分布式的计算引擎的集群里。
相比于传统的 OLAP 系统,它是一个即时生效的系统,不需要做数据的重分布和重打散,性能上有了巨大的提升。
① 分布式优化器。优化器会根据数据分布特征生成一个分布式的执行计划数。PolarDB 是基于 GPORCA 优化器框架做的二次开发,在开发过程中,需要让优化器感知到数据是共享的。GPORCA优化器框架是基于 share-nothing ,因此应用到 PolarDB 势必要增加很多规则转换。
② 分布式执行器。为了实现分布式执行器,需要实现一整套完整的并行化的算子。比如在做数据扫描的时候,因为在 PolarDB里底层数据是共享的,各个计算节点在做顺序扫描的时候就需要做扫描算字的并行化。这些算子最后会组装成火山执行模型。
③ 事务一致性。由于分布式执行跨了多个计算节点,需要使用统一的数据位点和快照来进行事务的可见性判断,才能保证各个节点查询到的数据是全值一致性的数据。
④ SQL 全兼容。为了使新的分布式计算引擎能够被用户的业务使用,还需要对 SQL 的标准进行大量兼容性的开发工作。
首先,节点之间通过 X-Paxos 算法来对 redo 日志进行复制,以保证在region 内部能够提低延迟同时 RP=0 的可用性。
其次,借助X-Paxos算法的复制实现了自动 failover 当leader 节点宕机时,无需 DBA 人员介入,算法能够自动选出一个新的 leader 来自动恢复。
此外,还可以借助 X-Paxos 算法实现集群成员变更。与此同时,PolarDB还实现了 log 节点(即节点上只有 redo 日志没有数据页),可以通过用两个正常的节点加上一个 log 节点,实现2.5副本的方式,降低成本。
在跨region场景下,通过 log 节点实现了两地三中心的高可用部署方式。如上图, region1 是一个独立的X-Paxos 三节点高可用的模式, region2 是一个独立的 DB 部署,并在同城的另一个机房里去部署一个 log 节点。那么 region 1 和同城 log 节点之间可以采用同步复制或异步复制,而由于是在同一个城市内部,延迟也比较低,这样即实现了两地三中心的高可用的部署方式。
系统还兼容了原生的流复制和逻辑复制,用户可以在下游部署一套自己的标准的 PostgreSQL 数据库来消费上游的 redo 日志。
二、PolarDB企业级特性
① 架构上的支持,前文已经进行了详细的讲解,此处不再赘述。
② 高性能。
- 1) PolarDB 实现了 CSN 快照和WAL日志的流水线,解决了高并发下临界区的问题。
- 2) 实现了预读和预扩展、RelSizeCache以及 CLOG 的优化。那么这些优化是针对DirectIO 模型下 IO 的优化。存储计算分离之后,存储的每一个 IO 都需要通过网络去访问后端的存储池,与原生场景下存在一些差异,因此需要对其进行大量的优化工作。
- 3) 研发了logIndex 核心数据结构,它记录了每个页面历史上发生的redo日志。它不仅能解决在计算存储分离下特有的过去页面和未来页面数据正确性的问题,还解决了 PB 数据库特有的半写问题。
③ 高可用。
- 1) 实现了 DataMax ,它提供了 log 模式来支持两地三中心的部署,还实现了 Online Promote 、延迟回放和并行回放。这三个大的功能优化了崩溃恢复的速度,缩短了 DB 进程崩溃时的不可用时间。
- 2) 实现了常驻BufferPool ,DB 进程重启后, buffer 需要重新初始化,而目前的机器配置会导致 buffer 越来越大,进而使得buffer 的初始化需要耗费大量时间。
- 3) 提供了Replication Slot 解决了 DB failover时slot 的丢失问题。它借助共享存储,将 slot 的信息存储到共享存储上,以此解决了复制槽丢失的问题。
- 4) 实现了算子级别的内存控制,为每个算子的内存设置了一个上限,避免了因单个算子内存过多而导致整个 DB 进程崩溃。
④ 安全。PolarDB 提供了透明加密的功能,保证存储在盘上的数据是加密后的数据。目前透明加密支持 AES 128位 和 AES 256位 以及国密 SM4 的加密算法。
三、PolarDB开源社区
PolarDB已经开源至 github 。源码仓库地址:
本文为阿里云原创内容,未经允许不得转载。
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· DeepSeek 开源周回顾「GitHub 热点速览」
· 物流快递公司核心技术能力-地址解析分单基础技术分享
· .NET 10首个预览版发布:重大改进与新特性概览!
· AI与.NET技术实操系列(二):开始使用ML.NET
· 单线程的Redis速度为什么快?
2021-03-11 阿里云科技驱动“数字化转型”,助力中小企业发展“突围”
2021-03-11 开课啦 dubbo-go 微服务升级实战
2021-03-11 谈身份管理之基础篇 - 保障云上安全,从[规范账号使用]开始
2021-03-11 使用MQTT与函数计算做热力图的实践
2021-03-11 Java单元测试技巧之PowerMock
2020-03-11 我在阿里做中后台开发
2020-03-11 阿里云2020上云采购季,你的ECS买好了吗?