flink实时生产维度表
十一之前写了个实时的维表,flink-sql实现的,技术上并不难,之前没写过,还是踩了一些坑的,特此总结下
一、需求背景
1、离线有个用户的维度表,需要搬到流上面,大概是1000万的存量数据,上游来自8个mysql表
2、可用的组件有kafka,flink,hbase,redis
3、8个表每个变更都需要下发一条完整的记录到kafka
二、任务思路
1、首先要想好写几个Hbase维表,业务上主键要想清楚,这是每次关联都需要的,比如,这个用户维度表主键是用户id,但是可能还会有身份证id啥的做关联,这就还需要身份证id的hbase表,还需要用户id和身份证id的关联表
2、每次收到消息需要往hbase写一份,同时需要下发一条消息
3、对于聚合函数、row_number函数需要考虑是否需要像离线那样全局维护状态
三、个人感受
1、实时的维度表比离线复杂多了,每次变更下发就意味着要维护8段逻辑
2、要想保证严格准确,比如min这种处理,就需要历史所有的数据流上处理一遍
3、写下来感觉还不如直接用mysql来的实在,1000万的数据mysql也吃的消,逻辑上也简单很多
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· winform 绘制太阳,地球,月球 运作规律
· 震惊!C++程序真的从main开始吗?99%的程序员都答错了
· AI与.NET技术实操系列(五):向量存储与相似性搜索在 .NET 中的实现
· 超详细:普通电脑也行Windows部署deepseek R1训练数据并当服务器共享给他人
· 【硬核科普】Trae如何「偷看」你的代码?零基础破解AI编程运行原理