超级维度表处理(亿行数据级别)
最近在优化公司的数据仓库项目中ETL部分,发现有一处明显可以改进的地方,发出来和大家分享一下。
在数据仓库中一个一个超级大维度表(1亿左右的记录),更新这个维度表的时候,采取的策略是最简单的1类渐变维度,即存在则更新,不存在则插入。
原先的方式是在ETL过程中先查找这个大表本身,如果存在就打上update标记,不存在就打上insert标记,最后通过分支来分别插入和更新数据记录。每次执行这个job的时候,都要耗去相当多的时间,以前也没有想过去优化。
研究了一下,这个维度表中含有创建时间和最近更新时间这两个字段,发现我只要通过判断这两个时间是否在同一天就可以判断是该插入还是该更新(这里说明一下,我们的数据仓库数据一天更新一次,增量更新的是前一天数据),这样就省去了大量的查找表操作,要知道到这么大一个表里面去频繁做lookup是非常低效的。
action,修改了程序,发现该job执行效率提升了60%,oh yeah。
这里前提是维度表中有创建时间和最近更新时间这两个字段,其实如果没有最近更新时间也是可以做到的,那么就需要另外存放一个值,每天跑这个job的时候,把这个值更新为数据所属的日期,那么这个日期就可以当成上面的最近更新时间来用。
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 如何编写易于单元测试的代码
· 10年+ .NET Coder 心语,封装的思维:从隐藏、稳定开始理解其本质意义
· .NET Core 中如何实现缓存的预热?
· 从 HTTP 原因短语缺失研究 HTTP/2 和 HTTP/3 的设计差异
· AI与.NET技术实操系列:向量存储与相似性搜索在 .NET 中的实现
· 周边上新:园子的第一款马克杯温暖上架
· Open-Sora 2.0 重磅开源!
· 分享 3 个 .NET 开源的文件压缩处理库,助力快速实现文件压缩解压功能!
· Ollama——大语言模型本地部署的极速利器
· [AI/GPT/综述] AI Agent的设计模式综述