上一页 1 2 3 4 5 6 7 ··· 66 下一页
摘要: 1.Topic(主题)命令行操作 1.查看Topic所有命令 bin/kafka-topics.sh 以下展示为最常使用的 参数 描述 --bootstrap-server <String: server toconnect to> 连接的 Kafka Broker 主机名称和端口号 --topic 阅读全文
posted @ 2024-02-11 10:17 SpringCore 阅读(301) 评论(0) 推荐(0) 编辑
摘要: 1.集群规划 hadoop02(192.168.58.130) hadoop03(192.168.58.131) hadoop04(192.168.58.132) zookeeper zookeeper zookeeper kafka kafka kafka 2.集群部署 1.下载kafka二进制包 阅读全文
posted @ 2024-02-10 09:06 SpringCore 阅读(842) 评论(0) 推荐(0) 编辑
摘要: 1. sql-client 准备 1.基于yarn-session模式 1.准备Flink集群 参考地址:Flink1.18 & YARN 会话模式 2.启动 Flink 的 sql-client /usr/flink/flink-1.18.0/bin/sql-client.sh embedded 阅读全文
posted @ 2024-02-05 18:18 SpringCore 阅读(350) 评论(0) 推荐(0) 编辑
摘要: 在 Flink 中,有一套完整的容错机制来保证故障后的恢复,其中最重要的就是检查点。 1.检查点(Checkpoint) 在流处理中,我们可以用存档读档的思路,就是将之前某个时间点所有的状态保存下来,这份“存档”就是所谓的“检查点”(checkpoint)。 遇到故障重启的时候,我们可以从检查点中“ 阅读全文
posted @ 2024-01-29 15:50 SpringCore 阅读(177) 评论(0) 推荐(0) 编辑
摘要: 与 Keyed State 中的 ListState 一样,将状态表示为一组数据的列表。 与 Keyed State 中的列表状态的区别是:在算子状态的上下文中,不会按键(key)分别 处理状态,所以每一个并行子任务上只会保留一个“列表”(list),也就是当前并行子任务上 所有状态项的集合。列表中 阅读全文
posted @ 2024-01-28 21:05 SpringCore 阅读(99) 评论(0) 推荐(0) 编辑
摘要: 流处理 API,无论是基本的转换、聚合,还是更为复杂的窗口操作,其实 都是基于 DataStream 进行转换的,所以可以统称为 DataStream API。 在 Flink 更底层,我们可以不定义任何具体的算子(比如 map,filter,或者 window),而只是提炼出一个统一的“处理”(p 阅读全文
posted @ 2024-01-26 20:57 SpringCore 阅读(53) 评论(0) 推荐(0) 编辑
摘要: 在批处理统计中,我们可以等待一批数据都到齐后,统一处理。但是在实时处理统计中,我们是来一条就得处理一条,那么我们怎么统计最近一段时间内的数据呢?引入“窗口”。 所谓的“窗口”,一般就是划定的一段时间范围,也就是“时间窗”;对在这范围内的数据进行处理,就是所谓的窗口计算。所以窗口和时间往往是分不开的。 阅读全文
posted @ 2024-01-24 10:12 SpringCore 阅读(402) 评论(0) 推荐(0) 编辑
摘要: 流程如下 Environment(执行环境) -> Source(数据源) -> Transformation(转换操作) -> Sink(输出) 1.Environment(执行环境) package cn.coreqi.env; import org.apache.flink.api.commo 阅读全文
posted @ 2024-01-21 10:20 SpringCore 阅读(428) 评论(0) 推荐(0) 编辑
摘要: 本文基于:Flink Java Demo 1.开发中开启WEB UI 1.添加依赖 <dependency> <groupId>org.apache.flink</groupId> <artifactId>flink-runtime-web</artifactId> <version>1.18.0< 阅读全文
posted @ 2024-01-19 21:09 SpringCore 阅读(58) 评论(0) 推荐(1) 编辑
摘要: 本文将历史服务器的日志信息保存到Hadoop 的 HDFS上,也可选择保存到本地磁盘上。 1.在HDFS上创建保存日志的文件夹 hadoop fs -mkdir -p /logs/flink-job 2.修改flink配置文件,添加历史服务器相关配置 vi /usr/flink/flink-1.18 阅读全文
posted @ 2024-01-18 17:07 SpringCore 阅读(154) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 7 ··· 66 下一页