从 ETL 到 EtLT 架构的演进历程

ETL到EtLT架构演进

 

为了更好地理解,我们先来介绍一下数仓从 ETL 到 EtLT 的架构演进。

 

回顾过去,我们会发现其实整个数仓在 1990 年到 2015 年都是 ETL 的架构,在这个架构下数据源主要是结构化数据,如 MySQL、SQL、Server、Oracle、ERP、CRM 等。同时,数据仓库计算主要由 OLTP 时代的Oracle,DB2 来承担,就是用来做查询和存储历史数据的数据库。在这个时代,其实Oracle、DB2 这样的数据库本身计算能力还是比较弱的,很难满足所有场景的数仓计算任务需求。

 

在这个过程中就诞生了 Information、Talend,还有Kettle 等专业化 ETL 软件。这些软件目前很多企业还在用,随着新的技术的出现,比如 MPP技术,还有分布式架构技术流行,比如 Hadoop、Hive 等,这些技术的出现让大家发现,其实可以用一些很低成本的硬件,代替以前昂贵的 Oracle、DB 的硬件服务。伴随着这些技术,我们已经进入到了 ELT 时代。

 

这个时代的核心特性,来自不同数据源的数据,包括结构化非结构化数据,日志等等,其实都可以不经过任何处理,或者只是经过一些简单的标准化,比如清洗、字数删减等,就可以加载到数仓中。在数仓中再经过 MapReduce、Spark 等引擎层层计算。这个时候因为数据源还不是太多,太复杂,大家处理从数据源到数仓的过程,主要还是通过写 MR 程序或者 写 Spark 程序来完成。

 

随着数据源越来越复杂,很多新兴的技术不断出现,数据源更加复杂,一些 SaaS 服务和云上数据存储出现了很多,进一步导致数据源更复杂。同时,在目标端,数仓和以前的数仓已经很不一样了,随着数据湖、实时数仓技术的出现,数据集成的目标端也更加复杂。这时,如果还像以前那样由数据工程师去开发 MR 程序,集成效率会非常低,这时迫切需要一些专业的团队和专业工具,来解决这样的 ELT 过程。

 

于是,数据集成这样一个领域就诞生了。SeaTunnel 就是下一代数据集成的平台。

 

在 ELT 场景下,有个概念叫做 EtLT,这里的小 t 区别于后面的大写 T,表示数据标准化的事情,比如字段筛选,对非结构化数据进行结构化转换等,它不涉及到 join,也不涉及到聚合。我们把这两套体系下的人员也是进行了拆分,数据 EL 的过程,也就是前面 EtL的过程,主要由一些不需要太懂业务的数据工程师来处理,他们只需要足够了解不同数据源之间的数据特性和差异就可以。当数据加载到数仓后,再由专业的 AI 数据科学家、数据分析师、SQL 开发人员等更懂业务的人,基于原始数据去做计算。

 

这就是从 ETL 到 EtLT 架构的演进历程。2020年,James Densmore在《Data Pipelines Pocket Reference》这本书中提出了EtLT 这个架构,他预测从 2020 年开始到未来,这是架构的演变趋势。

 

数据集成领域的痛点&常见的解决方案

 

由此,我们再引申到数据集成领域的一些常见的痛点和解决方案。

 

我在之前的技术探索中发现了一些数据集成领域的核心痛点,包括:

  1. 数据源多,SeaTunnel 社区目前统计到的数据源已经接近 500 个而且还在迅速的增长;版本不兼容,随着数据源版本迭代,兼容性上会出现问题,而且随着新技术的不断出现,数据集成领域需要快速地适配数据源,这是需要解决的一个核心痛点;
  2. 同步场景复杂:数据同步包括离线、实时,全量、增量同步,CDC,多表同步等,CDC的核心需求是要解决直接读物数据库的变更日志并解析,将其应用到下游,这个过程中,如何解析不同数据库的日志数据格式,事务处理,整库同步,分库分表等很多场景都有待适配支持;
  3. 过程如何监控、指标如何量化:同步过程中的监控缺失会带来信息的不透明,例如不确定已经同步的数据数量等;
  4. 有限资源下如何实现高吞吐、低延时,以降低成本;
  5. 如何降低对数据源的影响:多个表需要实时同步时,频繁读取 binlog 对数据源造成的压力较大,影响数据源的稳定性。同时JDBC 连接数过多时,也会导致数据源不稳定,甚至在数据源限制了最大连接数的情况下,同步作业可能无法正常运行。数据集成平台需要尽量降低对数据源的影响,比如减少连接占用,限制同步速度等。
  6. 如何做到数据一致性、不丢失、不重复:有些数据一致性要求高的系统,是不允许出现数据丢失和重复的。

 

为了满足这些需求,我们需要一个简单易用、易扩展、易管理、已维护的数据集成产品。我们为此做了方案调研。

 

我们发现,不同的数据集成产品大多是针对以下几个场景:

 

1. 全量离线增量

 

这个场景下,早期大家使用较多的是 Sqoop,它之前也是 Apache 基金会下的项目,但它的核心问题在于支持的数据源很少,而且依赖于 MapReduce 架构,很慢。而且它已经从 Apache 退役了,属于是上一代的数据集成项目了。

 

目前 DataX 也比较流行,这是一个很好用的数据同步工具,但问题在于其开源版本不支持实时同步,所以无法支持多级并行处理。而且因为内部设计没有分布式快照算法,无法保证数据的一致性,且无法支持断点续传。

 

2. 实时同步场景

 

在实时场景下,大家用得比较多的是 Flink 和 Spark Streaming。但由于这两个产品的定位是计算引擎,核心能力其实更多的是在于处理复杂的数据计算,很难像一个专业的数据同步产品一样支持足够多的数据源。而且两者从设计上来说容错力比较大,这就会导致在做多表同步时,一张表同步失败,整个作业都需要停掉重新执行。而且有些情况下需要写 Flink 和 Spark 代码,学习成本也有。

 

3. CDC 场景

 

对于 CDC 场景,目前大家使用比较多的还是 Flink CDC,但它的问题在于其底层还是 Flink,Flink 本身存在的问题它也有,而且不支持表结构的变更和单个 Source 读取多表(每个 Source只能读取一张表,意味着 CDC 同步时,需要使用的 JDBC 连接数和表的个数相等)。

 

综合下来,在数据集成场景下,用户如果想要支持所有场景,这三个组件都需要用到,整体的架构会非常复杂,而且需要公司有大数据平台,学习成本也相当高,在不同场景下,不同的代码管理也很难。

 

这些痛点,下一代数据集成平台 SeaTunnel 是都能解决的。

 

下一代数据集成平台Apache SeaTunnel

 

1

6大设计目标

 

SeaTunnel 的设计目标主要有总结为6个。第一个是它一定要简单易用,能够通过很少的配置,一些简单的命令,就能去起一个同步作业。

 

第二个点是它一定要能够做到同步的过程可监控,指标一定要可量化,让用户清晰地知道当前同步作业的情况,不能是一个黑盒。

 

第三个是要有丰富的数据源支持,社区统计到的 500 多个数据源,目前社区已经支持了 100 多个,而且数据源支持增速很快,基本上一个 Q 能增长四五十个新数据源。

 

第四个很重要是要做到全场景支持,支持实时同步、离线同步、增量全量、CDC、多表同步等场景,不需要用户用各种工具去组合。

 

第五是要解决数据一致性的问题,保证那些对于数据一致性要求高的系统能够做到不丢失数据,数据也重复。

 

最后在性能上,我们需要在满足这些功能的基础上,思考如何减少资源的占用,减少对数据源的影响。

2

项目发展历程

 

这里也简单讲一下 SeaTunnel 项目的发展历程。这个项目其实在 2017 年的时候就已经开源了,当时是叫Waterdrop,有些公司可能早期用的还是 OPPO 的版本,我们在 2021 年 12 月份贡献给了 Apache 基金会,全票通过。经过三个月,在 2022 年3 月份我们发布了第一个 SeaTunnel 版本,10 月份完成了一次大版本的重构,重构主要带来的效果是它能够支持多引擎的运行,而且将整个设计和引擎进行了重构,扩展性更好了。11月,我们发布 SeaTunnel Zeta 这样一个专门用来做数据集成的引擎,12 月份就支持了 CDC 连接器,同时连接器的数量突破了 100 个。今年,我们很快会发布新的版本,可以支持 Flink 和 Spark 更高版本,Zeta Engine 会支持多表同步,表结构变更等特性。

 

3

用户遍布全球

 

SeaTunnel 社区目前有接近 5000 人,社区的贡献者超过 200,PR 的提交速度和合并的速度也比较快。另外,我们的用户覆盖了国内的互联网企业,比如 B 站、腾讯云等企业。在海外,Shopee,印度第二大电信运营商巴帝电信等也在使用 SeaTunnel。

 

核心设计和架构

1

整体架构

 

SeaTunnel 架构主要分为三个模块,第一个是数据源,包含了一些国内外的数据库;第二部分是目标端,其实目标端和数据源可以合成在一起,都叫数据源,主要也是数据库,SaaS服务,以及数据湖、仓等产品组件。从数据源到目标端,我们定义了一套专门用来做数据同步的 API,它是和引擎解耦的,理论上能扩展到很多引擎里。目前我们支持的引擎包括 SeaTunnel Zeta,Flink 和 Spark。

 

2

与引擎解耦的连接器API

 

这套 API 设计上的核心是与引擎进行解耦,专门针对数据集成场景,分为 Source的 API,Transform API,其实就是我们之前说到的小 t, Sink API,以及 CDC API。借助于 Translation API 进行翻译,可以让这些连接器在不同的引擎上执行。

 

在整个所有的引擎里,连接器 API 基于 checkpoint机制,核心的目标是能够集成不同引擎里面的分布式快照算法,并应用底层引擎的 checkpoint 能力,实现两阶段提交等特性,保证数据的一致性。

 

3

Source Connector

 

基于这套API,我们实现了 Source连接器,以JDBC连接器为例,支持离线和实时两种运⾏⽅式,同⼀个连接器,只需要在env配置中指定job.mode为BATCH或STREAMING即可轻松切换离线和实时同步两种模式。

 

Source 连接器主要提供的能力包含并行读取、动态发现分片、字段投影、Exactly-once 语义保证,底层借助了引擎提供的checkpoint 能力,加上 Source API 支持底层的引擎调用 checkpoint API,能够保证同步中数据不会丢失,也不会重复。

 

4

Sink Connector

 

Sink Connector 主要支持的特性包括:

  • SaveMode支持,灵活选择目标表现有数据的处理⽅式
  • 自动建表,支持建表模板修改,多表同步场景下解放双⼿
  • Exactly-once语义支持,数据不丢失也不会重复,CheckPoint能⼒适配Zeta,Spark,Flink三种引擎
  • CDC支持,支持处理数据库日志事件

5

Transform Connector

 

Transform Connector 的主要功能包括:

  • 支持复制一列到新列
  • 支持字段改名、改顺序、类型修改、删除列
  • 支持替换数据中的内容
  • 支持将一列拆分成多列
  • CDC Connector设计

 

 

CDC Connector 主要具有以下功能:

  • 支持无锁并行快照历史数据
  • 支持动态加表
  • 支持分库分表和多结构表读取
  • 支持Schemaevolution
  • 支持Checkpoint流程,保证数据不丢失不重复
  • 支持离线批量CDC同步

6

Checkpoint功能设计

 

最后需要强调的是,SeaTunnel 所有的 Connector 都是基于 checkpoint 逻辑来设计的。作业从 Split 枚举器开始,进入到 Source 的 reader 中,经过读取后将数据发送给 Sink Writer,最终由 AggregateCommitter 提交。

 

下一代数据集成引擎SeaTunnel Zeta

 

下一代数据集成引擎SeaTunnel Zeta 的定位是一个简单易用,全场景数据集成的专用引擎,并在此基础上实现更快、更稳定、更省资源。

 

1

SeaTunnel Zeta集群管理

 

SeaTunnel Zeta 的集群管理方式有以下几个特点:

不需要依赖三方组件,不依赖大数据平台

• 无主(自选主)

• WAL,整个集群重启也可恢复之前正在运行的作业

• 支持分布式快照算法,保障数据一致性

接下来介绍一下 SeaTunnel Zeta引擎里的一些专有属性,以及其解决了什么核心问题。

 

2

SeaTunnel Zeta PipelineBase Failover

 

  • 无论是批作业,还是流作业,以Pipeline为单位进行资源分配,Pipeline分配到所需资源后即可开始执行,不会等待所有task 都获取到资源。这可以解决 Flink 等引擎在数据同步时的一些痛点问题,也就是作业中有多个 Source 和 Sink 进行同步时,如果任何一端出现问题,整个作业都会被标为失败而被停止。
  • 以Pipeline为粒度进行容错(Checkpoint, 状态回滚),目标表出现问题后,只会影响到上下游任务,其他任务会正常执行。
  • 问题解决后,支持对单个Pipeline进行手工恢复。

 

3

SeaTunnel Zeta 动态线程共享

 

动态线程核心是要减少 CDC 多表同步,尤其是大量小表存在的场景下,由于资源有限而且线程多而导致性能下降的问题。动态线程可以根据运行时间和数据量对线程进行动态匹配,节约资源。经过测试,在单个 JVM 场景下运行 500 个小表的 job,开启动态线程之后性能可以提升 2 倍以上。

 

4

SeaTunnel Zeta 连接池共享

 

连接池共享主要用于解决大量 JDBC 占用的场景,比如单个非常大的表,有很多个并行 Task 去处理,或者多表离线同步,多表 CDC 同步等。连接池共享可以让同一个 TaskExecutionService 节点上的同一个Job 共享 JDBC 连接,从而减少 JDBC 使用。

 

5

SeaTunnel Zeta多表同步

 

最后是多表同步,主要应用于 CDC Source 读完了之后进行 tablel partition transform 处理,将数据分发到不同的 Sink 里,每个 Sink 会处理一张表的数据。在这个过程中会利用到连接器共享来降低 JDBC 连接的使用,以及动态线程共享来降低线程使用,从而提高性能。

 

6

性能对比

 

我们进行了性能测试,主要包括 SeaTunnel 从 MySQL 数据同步至 Hive 等本地环境下,以及 MySQL 同步至 S3 云测试环境下的性能表现。

 

测试环境:

-------------------------------------------------------------- -

本地测试场景:MySQL-Hive, Postgres-Hive, SQLServer-Hive,

Orache-Hive

-------------------------------------------------------------- -

云测试场景:MySQL-S3

列数:32,基本包含大部分数据类型

行数:3000w行

Hive文件text格式18G

测试节点:1, 8C16G

-------------------------------------------------------------- -

结果:

--------------------------------------------------------------

本地测试:SeaTunnel Zeta VS DataX

SeaTunnel Zeta 比 DataX 同步数据快 30-50% 左右。

内存对 SeaTunnel Zeta 的性能没有显著影响。

-------------------------------------------------------------- -

云数据同步:

SeaTunnel 在 MySQL 到 S3 场景下性能是 Airbyte 的 30 多,是 AWS DMS 和 Glue 的 2 到 5 倍。

-------------------------------------------------------------- -

可以看到,SeaTunnel 在很小的内存下就能够完成同步,而且还是在单点的情况下,因为 Zeta 支持分布式,相信在数量级更大,多机并行下,SeaTunnel 会有更好的性能表现。

 

近期规划&参与社区

 

SeaTunnel 近期计划完成一些新特性的支持,包括:

Spark3支持

• Flink15、16支持

• Schema evolution

• 多表同步

...

posted @ 2024-02-12 00:11  智慧园区-老朱  阅读(62)  评论(0编辑  收藏  举报