使用Oracle内建功能构建ETL流程

经常听到客户抱怨一些企业级的数据仓库软件许可证过于昂贵;也曾经见到过一次性的Access到 Oracle的数据迁移就使用了DataStage(这是真的!在发现 Server版本不能连接Access后,还专门购买了DataStage for ODBC --__--!)。实际上一些简单的ETL流程完全可以使用Oracle内建的功能完成。本文的主旨在于说明这一思想,文中代码未必是最佳实践。本文中所有的代码经过了测试,但一些错误与疏忽还是难免的。如果你发现了错误,或者有不同的观点,欢迎讨论。

    概述
    假如把一个完整的数据仓库系统比作一个提供美味菜肴的餐馆,那么ETL系统就是这个餐馆的厨房。在大多数情况下,ETL对最终用户来说是透明的,正像食客往往不需要进入厨房获取服务,厨房也不会对食客开放。但是,ETL模块常常占用整个数据仓库项目70%以上的资源,实际情况也大概也是如此,厨师的工资比侍者要高出很多。

    在当前的数据仓库项目中,企业级ETL工具昂贵的许可证、培训费用常常使许多中小型用户望而却步。真实世界的应用中相当一部分的数据源(E) 都是以文件或数据库的方式提供,进行的转换 (T) 也可以在数据库之内完成,基于这一实际情况,利用Oracle自身的一些功能,我们可以构建相对简单的ETL流程。

    在Oracle9i中引入了外部表(External Table)的概念,通过访问驱动程序ORACLE_LOADER可以对数据库之外的文件进行只读的SQL查询。在Oracle10g中,提供了第二个访问驱动程序ORACLE_DATAPUMP,允许用户对外部表进行写操作,写出的结果文件以特定的结构保存并允许DPAPI访问,即该结果文件可以被加载到另一个数据库中。同时,新的访问驱动程序也支持列对象的投影。

    配合10g中新增的DBMS_SCHEDULER包,可以很方便地实现ETL工具的定时调度功能。这个新的DBMS_SCHEDULER包取代了原有的DBMS_JOB包,并提供了更加强大完善的功能,笔者在本文中仅举一简单示例说明。 

    Ralph Kimball在他的<The Data Warehouse ETL Toolkit>中提出了ECCD(Extract-Clean-Conform-Deliver)的架构,在此文章中笔者将使用ECCD的四个步骤进行描述:源系统通过FTP提供文件格式的数据源文件,使用ORACLE_LOADER访问驱动程序使用该文件构建外部表(抽取),与数据库中的标准数据表进行校验并写入对应的Staging表(清洗与整合),处理的结果通过ORACLE_DATAPUMP访问驱动程序写入目标文件(分发)。

    准备工作
    在使用外部表之前,首先要建立DIRECTORY对象。同时给需要进行外部表操作的用户赋予适当的权限。

SQL> CREATE OR REPLACE DIRECTORY source_dir as 'C:\oracle\oradata\source'; --源文件目录 Directory created. SQL> grant connect, dba to stenny identified by stenny; Grant succeeded. SQL> CREATE OR REPLACE DIRECTORY source_dir as 'C:\oracle\oradata\source'; Directory created. SQL> CREATE OR REPLACE DIRECTORY target_dir as 'C:\oracle\oradata\target'; Directory created. SQL> CREATE OR REPLACE DIRECTORY log_dir as 'C:\oracle\oradata\log'; Directory created. SQL> grant read on directory source_dir to stenny; Grant succeeded. SQL> grant write on directory target_dir to stenny; Grant succeeded. SQL> grant write on directory log_dir to stenny; Grant succeeded.
    数据抽取— ORACLE_LOADER
    平文件的数据源一般有两种格式:定长格式或者分隔符格式,ORACLE_LOADER对这两种格式都提供支持。如果是分隔符格式的源文件,使用关键字FIELDS TERMINATED BY指定分隔符;如果是定长格式文件,使用关键字POSITION指定数据列的位置。
    --数据源文件product1.dat
    1,Bicycle,JiangSu
    2,Camps,ZheJiang
    3,Wearings,SiChuan
    4,Gloves,SiChuan
    5,Food,YunNan
    6,Shoes,NULL
    使用EXTERNAL ORGANIZATIONAL关键字构建外部表,注意DRIVER关键字指定了ORACLE_LOADER驱动;DEFAULT DIRECTORY子句指定了默认的操作目录;在ACCESS PARAMETERS子句中定义了分隔符、坏文件、LOG文件;LOCATION关键字指定了外部表依存的数据文件,如果存在多个文件,使用逗号分隔。
SQL> ed Wrote file afiedt.buf 1 CREATE TABLE stenny_ext_product 2 (product_id NUMBER(4), 3 product_name VARCHAR2(20), 4 location VARCHAR2(25) 5 ) 6 ORGANIZATION EXTERNAL 7 ( 8 TYPE ORACLE_LOADER 9 DEFAULT DIRECTORY source_dir 10 ACCESS PARAMETERS 11 ( 12 records delimited by newline 13 badfile log_dir:'bad_product.dat' 14 logfile log_dir:'product.log' 15 fields terminated by ',' 16 missing field values are null 17 ( product_id, product_name, location ) 18 ) 19 LOCATION ('product1.dat') 20 ) 21* REJECT LIMIT UNLIMITED SQL> / Table created. SQL> select * from stennY_ext_product; PRODUCT_ID PRODUCT_NAME LOCATION ---------- -------------------- ------------------------- 1 Bicycle JiangSu 2 Camps ZheJiang 3 Wearings SiChuan 4 Gloves SiChuan 5 Food YunNan 6 Shoes NULL 6 rows selected.
    经过上面的步骤,我们将数据库之外的一个平文件通过访问驱动程序ORACLE_LOADER与一个数据库表STENNY_EXT_PRODUCT建立了映射关系。我们对这个外部表可以进行排序,表连接等只读操作。
 
    数据清洗与数据整合
    在典型的数据仓库系统中,事实表中的大部分字段都采用KEY的形式进行存储。在我们的例子中,我们将对LOCATION列进行LOOKUP,满足地区标准的数据被视为正确数据并附以标准键值;如果出现在标准表中不存在的纪录,我们将认为其为脏数据。脏数据将被另行处理。我们的标准表为LOC_STD,正确记录的Staging表为STG_PRODUCT,异常记录的Staging表为STG_EXCEP。建表语句与测试数据见附录A。在数据文件中,ID为6的产品没有对应的Location,该记录将被视为异常记录。通过一个简单的存储过程,我们将STENNY_EXT_PRODUCT与LOC_STD表进行连接,正确的记录与异常记录将被写入对应的Staging表中。
--proc_txn_product CREATE OR REPLACE PROCEDURE proc_txn_product AS BEGIN insert into stg_product select product_id,product_name,loc_id from stenny_ext_product,loc_std where loc_std.loc_name=stenny_ext_product.location; insert into stg_excep select * from stenny_ext_product where product_id not in (select product_ id from stg_product); commit; END proc_txn_product
    执行存储过程可以得到如下的结果:
SQL> exec proc_txn_product; PL/SQL procedure successfully completed. SQL> select * from stg_product; PRODUCT_ID PRODUCT_NAME LOC_ID ---------- -------------------- ---------- 1 Bicycle 1 2 Camps 2 3 Wearings 3 4 Gloves 3 5 Food 4 SQL> select * from stg_excep; PRODUCT_ID PRODUCT_NAME LOCATION ---------- -------------------- ------------------------- 6 Shoes NULLEND proc_txn_product


    数据分发 – ORACLE_DATAPUMP

    在经过了上面的抽取、清洗整合的步骤后,我们将使用ORACLE_DATAPUMP将staging表中的数据写入目标文件中。典型的数据仓库系统最终的目标是数据库,而本文中的ECCD流程可以是数据准备的一个过程,众所周知,数据仓库的刷新频率与Staging区域可能不同,目标文件可以被传输到数据仓库系统,并按照其刷新频率进行第二步加载。顺便提一句,DBMS_SCHEDULER可以用来完成在数据库之间进行文件传输。 

    下面的代码演示了如何使用ORACLE_DATAPUMP驱动访问程序unload数据库表的过程。
SQL> ed Wrote file afiedt.buf 1 CREATE TABLE tgt_product 2 ORGANIZATION EXTERNAL (TYPE ORACLE_DATAPUMP 3 DEFAULT DIRECTORY target_dir 4 LOCATION ('tgt_product.dmp')) 5 PARALLEL 2 6 AS 7 SELECT product_id, 8 product_name, 9 loc_id 10* FROM stg_product SQL> / Table created. SQL> select * from tgt_product; PRODUCT_ID PRODUCT_NAME LOC_ID ---------- -------------------- ---------- 1 Bicycle 1 2 Camps 2 3 Wearings 3 4 Gloves 3 5 Food 4
    同时,在target_dir目录下可以看到创建的TGT_PRODUCT.DMP文件,该文件可以被加载到真正的目标数据库,但是必须使用ORACLE_DATAPUMP访问驱动程序。

   定时调度 – DBMS_SCHEDULER
    首先我们将使用proc_file_watcher存储过程每5分钟对某一个目录进行扫描等待文件。如果文件存在,调用proc_txn_product对文件进行处理,否则睡眠5分钟。这个文件扫描过程在周二早上4点钟被激活,如果超过8点文件还是没有到,可以抛出用户异常或者调用UTL_SMTP包发邮件通知相关责任人。
create or replace procedure proc_file_watcher is v_exists boolean; v_file_length number; v_blocksize number; begin <<L_sleeping_child>> if to_char(sysdate,'hh24')>='08' then --超时,可以调用UTL_SMTP null; else utl_file.fgetattr('SOURCE_DIR','product1.dat',v_exists,v_file_length,v_blocksize); if v_exists then dbms_output.put_line('File there!'); proc_txn_product; else dbms_output.put_line('404 Error'); dbms_lock.sleep(300); goto L_sleeping_child; end if; end if; end proc_file_watcher;
    现在,我们只需要将这个文件扫描程序加入调度,每个周二早上4点钟开始运行即可。
    --创建程序
SQL> ed Wrote file afiedt.buf 1 BEGIN 2 DBMS_SCHEDULER.CREATE_PROGRAM( 3 program_name=>'STENNY.STP_PROC_FILE_WATCHER', 4 program_action=>'STENNY.PROC_FILE_WATCHER', 5 program_type=>'STORED_PROCEDURE', 6 comments=>'Firing the ETL process if file arrives', 7 enabled=>TRUE); 8* END; SQL> / PL/SQL procedure successfully completed. --创建调度 SQL> ed Wrote file afiedt.buf 1 BEGIN 2 SYS.DBMS_SCHEDULER.CREATE_SCHEDULE( 3 repeat_interval => 'FREQ=WEEKLY;BYDAY=TUE;BYHOUR=8;BYMINUTE=0;BYSECOND=0', 4 start_date => to_timestamp_tz('2004-04-27 US/Central', 'YYYY-MM-DD TZR'), 5 comments => 'Tuesday AM Schedule', 6 schedule_name => '"STENNY"."SCS_TXN_PROD"'); 7* END; SQL> / PL/SQL procedure successfully completed. 创建工作 SQL> ed Wrote file afiedt.buf 1 BEGIN 2 SYS.DBMS_SCHEDULER.CREATE_JOB( 3 job_name => 'STENNY.SCJ_TXN_PROD', 4 program_name => 'STENNY.STP_PROC_FILE_WATCHER', 5 schedule_name => 'STENNY.SCS_TXN_PROD', 6 comments => 'Start the ETL process on Tuesday', 7 auto_drop => FALSE, 8 enabled => TRUE); 9* END; SQL> / PL/SQL procedure successfully completed. --进行测试 SQL> select count(*) from stenny.stg_product; COUNT(*) ---------- 0 SQL> EXEC DBMS_SCHEDULER.RUN_JOB('STENNY.SCJ_TXN_PROD',FALSE); PL/SQL procedure successfully completed. SQL> select count(*) from stenny.stg_product; COUNT(*) ----------
    附录A, 创建测试表的语句
--stg_excep Create table stg_excep as select * from stenny_ext_product where 1=2; --stg_product CREATE TABLE STG_PRODUCT ( PRODUCT_ID NUMBER, PRODUCT_NAME VARCHAR2(20), LOC_ID NUMBER ); --loc_std CREATE TABLE LOC_STD ( LOC_ID NUMBER, LOC_NAME VARCHAR2(20) ); INSERT INTO LOC_STD ( LOC_ID, LOC_NAME ) VALUES ( 1, 'JiangSu'); INSERT INTO LOC_STD ( LOC_ID, LOC_NAME ) VALUES ( 2, 'ZheJiang'); INSERT INTO LOC_STD ( LOC_ID, LOC_NAME ) VALUES ( 3, 'SiChuan'); INSERT INTO LOC_STD ( LOC_ID, LOC_NAME ) VALUES ( 4, 'YunNan');
posted on 2009-03-10 15:59  一江水  阅读(4243)  评论(0编辑  收藏  举报