KIP-5:Apache Kylin深度集成Hudi

Q1. What are you trying to do? Articulate your objectives using absolutely no jargon.

  • 对于Hudi数据湖源端集成
    • 将企业数据湖中以Hudi格式存储的数据集作为Kylin的源端输入
  • 对于Kylin cube重新构建&合并优化
    • 支持Kylin的Cuboid使用Hudi格式存储
    • 使用Hudi的增量查询视图加速和优化Kylin cube重新构建过程,仅解析上次cube构建后变更的数据
    • 使用Hudi的Compaction功能加速和优化Kylin Cube合并过程(针对增量cuboid文件),或者使用Hudi的Upsert功能来合并多个cuboid文件,类似Upsert到MOR表,并支持Select查询

Q2. What problem is this proposal NOT designed to solve?

  • 不支持Hudi的其他类型的数据源(例如Kafka)不在此范围内
  • 流式CubeEnginer不在此范围内

Q3. How is it done today, and what are the limits of current practice?

  • 当前无论输入格式是否为Hudi,Kylin都使用Beeline JDBC机制直接连接到Hive源
  • 当前的实现无法利用Hudi的原生和高级功能(例如增量查询、读优化视图查询等),Kylin可以从较小的增量cuboid合并和更快的源数据提取中受益

Q4. What is new in your approach and why do you think it will be successful?

对于Hudi Source集成

  • 新的方法
    • 使用Hudi的原生优化视图查询和MOR表来加速Kylin的cube构建过程
  • 为什么会成功
    • Hudi已在大数据领取和技术栈中发布并成熟,许多公司已经在Data Lake/Raw/Curated数据层中使用了Hudi
    • Hudi lib已经与Spark DF/Spark SQL集成,可以使用Kylin的Spark Engine查询Hudi数据源
    • Hudi的Parquet基础文件和Avro日志以及索引元数据等都可以通过Hive的外部表和输入格式定义进行连接,Kylin可以利用它们进行提取

Hudi作为Cuboid存储

  • 新的方法
    • 使用Hudi的原生增量视图查询优化Kylin的cube重建过程,以仅捕获变更的数据并仅重新计算和更新必要的cuboid文件
    • 使用Hudi的upsert功能来操作cuboid文件,以优化Kylin的cube合并过程;而不是以前的join和shuffle方式
  • 为什么会成功
    • Hudi根据记录的PK支持upsert,每个cuboid的维度key-id都可以视为PK
    • 这样当进行重建和合并操作时,它可以直接更新以前的cuboid文件,或基于PK合并多个cuboid文件并将它们压缩为Parquet文件

Q5. Who cares? If you are successful, what difference will it make?

  • 如果在Kylin中启用了新的集成功能,从事数据挖掘/探索/报告等工作的数据科学家将有更快的cube集构建时间
  • 正在开发DW/DM层数据建模的数据工程师将最大程度地减少cube上的单元测试/性能测试的实现和交付工作

Q6. What are the risks?

没有其他风险,因为它只是配置Hudi源类型的替代选择,其他Kylin的组件和管道也不会受到影响

Q7. How long will it take?

N/A

Q8. How does it work?

总体架构设计的逻辑图如下:

  • 对于Hudi源集成

    • 在kylin.property中为Hudi源类型添加新的配置项(例如:isHudiSouce = true,HudiType = MOR)
    • 使用Hudi原生客户端API添加新的ISouce接口和实现
    • 在配置单元外部表中使用Hudi客户端API查询优化视图及提取源Hudi数据集
  • 对于Hudi cuboid存储

    • 在kylin.property中为cuboid的Hudi存储类型添加新的配置项(例如isHudiCuboidStorage = true)
    • 使用Hudi编写API添加新的ITarget接口和实现,以实现内部存储和cuboid文件的操作
  • 对于使用新的Hudi源类型cube重建

    • 使用Hudi的增量查询API仅从Cube段的时间戳的最后时间提取变更的数据
    • 使用Hudi的upsert API合并cuboid的变更数据和以前的历史数据
  • 对于新的Hudi Cuboid存储类型cube合并

    • 使用Hudi upsert API合并2个cuboid文件

Reference

Hudi framework: https://hudi.apache.org/docs/

hive/spark integration support for Hudi: https://hudi.apache.org/docs/querying_data.html

原文:https://cwiki.apache.org/confluence/pages/viewpage.action?spaceKey=KYLIN&title=KIP-5+Integration+with+Hudi

posted @   leesf  阅读(360)  评论(0编辑  收藏  举报
编辑推荐:
· Linux系列:如何用heaptrack跟踪.NET程序的非托管内存泄露
· 开发者必知的日志记录最佳实践
· SQL Server 2025 AI相关能力初探
· Linux系列:如何用 C#调用 C方法造成内存泄露
· AI与.NET技术实操系列(二):开始使用ML.NET
阅读排行:
· 被坑几百块钱后,我竟然真的恢复了删除的微信聊天记录!
· 没有Manus邀请码?试试免邀请码的MGX或者开源的OpenManus吧
· 【自荐】一款简洁、开源的在线白板工具 Drawnix
· 园子的第一款AI主题卫衣上架——"HELLO! HOW CAN I ASSIST YOU TODAY
· Docker 太简单,K8s 太复杂?w7panel 让容器管理更轻松!
历史上的今天:
2020-06-15 使用Apache Spark和Apache Hudi构建分析数据湖

喜欢请打赏

扫描二维码打赏

了解更多

点击右上角即可分享
微信分享提示