数据仓库-数据清洗

数据仓库-数据清洗

定义

ETL

抽取(Extract)、转换(Transform)、加载(Load

ETL的核心价值在"T"所代表的转换部分

数据清洗是对数据进行重新审查和校验的过程,目的在于删除重复信息、纠正存在的错误,并提供数据一致性

为什么要进行数据清洗

数据仓库中的数据是面向某一主题数据的集合,这些数据从多个业务系统中抽取而来,并且包含历史数据,因此就不可避免地出现某些数据是错误的,或者数据相互之间存在冲突的情况。这种数据被称为脏数据。

按照一定的规则处理脏数据,这个过程就是数据清洗

任务

数据清洗的任务是过滤那些不符合要求的数据,将过滤的结果交给业务主管部门,确认是直接删除掉,还是修正之后再进行抽取。

脏数据类型

  • 残缺的数据

这一类数据主要是一些应该有的信息缺失,如产品名称、客户名称、客户的区域信息,还包括业务系统中由于缺少外键约束所导致的主表与明细表不能 匹配等。

  • 错误的数据

这一类错误产生的原因多是业务系统不够健全,在接收输入后没有进行合法性检查或检查不够严格,将有问题的数据直接写入后台数据库造成的,比如 用字符串存储数字、超出合法的取值范围、日期格式不正确、日期越界等。

  • 重复的数据

源系统中相同的数据存在多份。

  • 差异的数据

本来具有同一业务含义的数据,因为来自不同的操作型数据源,造成数据不一致。这时需要将非标准的数据转化为在一定程度上的标准化数据。

数据清洗原则

优先对数据清洗处理流程进行分析和系统化的设计,针对数据的主要问题和特征,设计一系列数据对照表和数据清洗程序库的有效组合,以便面对不断变化的、形形色色的数据清洗问题。

清洗流程

  • 预处理

对于大的数据加载文件,特别是新的文件和数据集合,要进行预先诊断和检测,不能贸然加载。有时需要临时编写程序进行数据清洁检查

  • 标准化处理

应用建于数据仓库内部的标准字典,对于地区名、人名、公司名、产品名、分类名以及各种编码信息进行标准化处理。

  • 查重

应用各种数据库查询技术和手段,避免引入重复数据;

  • 出错处理和修正

将出错的记录和数据写入到日志文件,留待进一步处理。

posted on 2020-12-27 19:40  嘣嘣嚓  阅读(2252)  评论(0编辑  收藏  举报

导航