数据仓库之ETL漫谈

ETL,Extraction-Transformation-Loading的缩写,中文名称为数据抽取、转换和加载。

 

大多数据仓库的数据架构可以概括为:

数据源-->ODS(操作型数据存储)-->DW-->DM(data mart)

ETL贯穿其各个环节。

 

​一、数据抽取:

       可以理解为是把源数据的数据抽取到ODS或者DW中。

       1. 源数据类型:

           关系型数据库,如Oracle,Mysql,Sqlserver等;

           文本文件,如用户浏览网站产生的日志文件,业务系统以文件形式提供的数据等;

           其他外部数据,如手工录入的数据等;

       2. 抽取的频率:

           大多是每天抽取一次,​也可以根据业务需求每小时甚至每分钟抽取,当然得考虑源数据库系统能否承受;

       3. 抽取策略:

           个人感觉这是数据抽取中最重要的部分,可分为全量抽取和增量抽取。

           全量抽取适用于那些数据量比较小,并且不容易判断其数据发生改变的诸如关系表,维度表,配置表等;

           增量抽取,一般是由于数据量大,不可能采用全量抽取,或者为了节省抽取时间而采用的抽取策略;

               如何判断增量,这是增量抽取中最难的部分,一般包括以下几种情况:

               a) 通过时间标识字段抽取增量;源数据表中有明确的可以标识当天数据的字段的流水表,

                   如createtime,updatetime等;

               b) 根据上次抽取结束时候记录的自增长ID来抽取增量;无createtime,但有自增长类型字段的流水表,

                   如自增长的ID,抽取完之后记录下最大的ID,

                   下次抽取可根据上次记录的ID来抽取;

               c)  通过分析数据库日志获取增量数据,无时间标识字段,无自增长ID的关系型数据库中的表;

               d)  通过与前一天数据的Hash比较,比较出发生变化的数据,这种策略比较复杂,在这里描述一下,

                     比如一张会员表,它的主键是memberID,而会员的状态是有可能每天都更新的,

                     我们在第一次抽取之后,生成一张备用表A,包含两个字段,第一个是memberID,

                     第二个是除了memberID之外其他所有字段拼接起来,再做个Hash生成的字段,

                     在下一次抽取的时候,将源表同样的处理,生成表B,将B和A左关联,Hash字段不相等的

                     为发生变化的记录,另外还有一部分新增的记录,

                     根据这两部分记录的memberID去源表中抽取对应的记录;

               e) 由源系统主动推送增量数据;例如订单表,交易表,

                   有些业务系统在设计的时候,当一个订单状态发生变化的时候,是去源表中做update,

                   而我们在数据仓库中需要把一个订单的所有状态都记录下来,

                   这时候就需要在源系统上做文章,数据库​触发器一般不可取。我能想到的方法是在业务系统上做些变动,

                   当订单状态发生变化时候,记一张流水表,可以是写进数据库,也可以是记录日志文件。

               当然肯定还有其他抽取策略,至于采取哪种策略,需要考虑源数据系统情况,

               抽取过来的数据在数据仓库中的存储和处理逻辑,抽取的时间窗口等等因素。

 

二、数据清洗:

       顾名思义​,就是把不需要的,和不符合规范的数据进行处理。数据清洗最好放在抽取的环节进行,

       这样可以节约后续的计算和存储成本;

       当源数据为数据库时候,其他抽取数据的SQL中就可以进行很多数据清洗的工作了。

       ​数据清洗主要包括以下几个方面:

       1. 空值处理;根据业务需要,可以将空值替换为特定的值或者直接过滤掉;

       2. 验证数据正确性;主要是把不符合​业务含义的数据做一处理,比如,把一个表示数量的字段中的字符串

           替换为0,把一个日期字段的非日期字符串过滤掉等等;

       3. 规范数据格式;比如,把所有的日期都格式化成YYYY-MM-DD的格式等;

       4. ​数据转码;把一个源数据中用编码表示的字段,通过关联编码表,转换成代表其真实意义的值等等;

       5. 数据标准,统一;比如在源数据中表示男女的方式有很多种,在抽取的时候,直接根据模型中定义的值做转化,

           统一表示男女;

       6. 其他业务规则定义的数据清洗。。。

 

三、数据转换和加载:

       很多人理解的ETL是在经过前两个部分之后,加载到数据仓库的数据库中就完事了。

       数据转换和加载不仅仅是在源数据-->ODS这一步,ODS-->DW, DW-->DM包含更为重要和复杂的ETL过程。

       1. 什么是ODS?

           ODS(Operational Data Store)是数据仓库体系结构中的一个可选部分,

           ODS具备数据仓库的部分特征和OLTP系统的部分特征,

           它是“面向主题的、集成的、当前或接近当前的、 不断变化的”数据。​---摘自百度百科

           其实大多时候,ODS只是充当了一个数据临时存储,数据缓冲的角色。一般来说,

           数据由源数据加载到ODS之后,会保留一段时间,当后面的数据处理逻辑有问题,需要重新计算的时候,

           可以直接从ODS这一步获取,而不用再从源数据再抽取一次,减少对源系统的压力。

           另外,ODS还会直接给DM或者前端报表提供数据,比如一些维表或者不需要经过计算和处理的数据;

           还有,ODS会完成一些其他事情,比如,存储一些明细数据以备不时之需等等;

       2. 数据转换(刷新):

           数据转换,更多的人把它叫做数据刷新,就是用ODS中的增量或者全量数据来刷新DW中的表。

           DW中的表基本都是按照事先设计好的模型创建的,如事实表,维度表,汇总表等,

           每天都需要把新的数据更新到这些表中。

           更新这些表的过程(程序)都是刚开始的时候开发好的,每天只需要传一些参数,如日期,来运行这些程序即可。

       3. 数据加载:

           个人认为,每insert数据到一张表,都可以称为数据加载,至于是delete+insert、truncate+insert、

           还是merge,这个是由业务规则决定的,这些操作也都是嵌入到数据抽取、转换的程序中的。

 

四、ETL工具:

        在传统行业的数据仓库项目中,大多会采用一些现成的ETL工具,如Informatica、Datastage、微软SSIS等。

        这三种工具我都使用过,优点有:图形界面,开发简单,数据流向清晰;缺点:局限性,不够灵活,

        处理大数据量比较吃力,查错困难,昂贵的费用;

        选择ETL工具需要充分考虑源系统和数据仓库的环境,当然还有成本,如果源数据系统和数据仓库都采用

        ORACLE,那么我觉得所有的ETL,都可以用存储过程来完成了。。

        在大一点的互联网公司,由于数据量大,需求特殊,ETL工具大多为自己开发,

        或者在开源工具上再进行一些二次开发,在实际工作中,

        一个存储过程,一个shell/perl脚本,一个java程序等等,都可以作为ETL工具。

五、ETL过程中的元数据:

       试想一下,你作为一个新人接手别人的工作,没有文档,程序没有注释,

            数据库中的表和字段也没有任何comment,你是不是会骂娘了?

       业务系统发生改变,删除了一个字段,需要数据仓库也做出相应调整的时候,

           你如何知道改这个字段会对哪些程序产生影响?

       。。。。

       源系统表的字段及其含义,源系统数据库的IP、接口人,数据仓库表的字段及其含义,

       源表和目标表的对应关系,一个任务对应的源表和目标表,任务之间的依赖关系,

       任务每次执行情况等等等等,这些元数据如果都能严格的管控起来,上面的问题肯定不会是问题了。。。

 

以上转载自:http://superlxw1234.iteye.com/blog/1666960

想说这个文章是干货,说的很实在,是有技术浓缩在里面的。

 

关于上面的在这里说下自己的体会

3. 抽取策略:数据量小的表(比如50w一下)尽量使用全量抽取,可以避免出现数据遗漏等错误。

  d)增量的hash比较这个策略 在ETL 工具kettle里面有类似策略的实现,先从源系统做份全量到目标表,然后从源系统取全量用主键与目标表一条条比对,如果目标 表没有那就是新增、目标表有源系统没有那就是删除、源系统有目标表有且变更那就是更新。

 

ORACLE,那么我觉得所有的ETL,都可以用存储过程来完成了。。 关于文章的这句话,我觉得对于T、L过程可以差不多这么说 ,但是E过程就不行了,像从各个源系统数据做增量、批量提交等到ods的表 ,还是用ETL工具像kettle这样的有可视化的界面配置比较方便且好管理。

posted on 2015-07-07 23:04  duanxz  阅读(5521)  评论(0编辑  收藏  举报