Flink/Kafka - Flink集成Kafka

回到顶部(go to top)

一、背景介绍

本文以risk-summary项目为背景来介绍。我们主要关注step 1  和 step 2

  • 以flink作为中心来看,其在step 1把kafka作为数据源(addSource)获取数据,经过flink处理后,将处理后的数据再输出(addSink)到kafka

 

 

 

回到顶部(go to top)

二、Flink与Kafka的集成

2.1 引入flink与kafka集成相关的包

 

2.2 创建Flink上下文环境

 

 

2.3 建立Flink和Kafka的关联 - 将kafka作为flink的数据源

(1)步骤是,建立flink和kafka的消费关系

(2) 步骤是flink上下文env通过addSource把kafka作为消费数据源. 返回一个数据流DataStream.

 

 

2.4 Flink对数据进行处理

通过filter过滤

通过map转换数据类型,从PortRiskBO convert 为 RiskSummaryBO

 

  

2.5 再次建立Flink和Kafka的关联 - 将kafka作为flink的输出地

 

 

2.6 启动Flink

 

 

 

 

 

回到顶部(go to top)

参考文献

FLINK基础(十):FLINK常用的SOURCE和SINK:https://www.freesion.com/article/2162429401/

 

posted on   frank_cui  阅读(618)  评论(0编辑  收藏  举报

相关博文:
阅读排行:
· DeepSeek 开源周回顾「GitHub 热点速览」
· 物流快递公司核心技术能力-地址解析分单基础技术分享
· .NET 10首个预览版发布:重大改进与新特性概览!
· AI与.NET技术实操系列(二):开始使用ML.NET
· 单线程的Redis速度为什么快?
历史上的今天:
2021-05-10 JavaWeb - Rest vs Restful
< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5

导航

统计

levels of contents
点击右上角即可分享
微信分享提示