SparkStreaming 连接 Kafka数据源
本文的前提条件: SparkStreaming in Java
参考地址:Spark Streaming + Kafka Integration Guide (Kafka broker version 0.10.0 or higher)
1.添加POM依赖
<dependency>
<groupId>com.fasterxml.jackson.core</groupId>
<artifactId>jackson-core</artifactId>
<version>2.16.1</version>
</dependency>
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-streaming-kafka-0-10_2.13</artifactId>
<version>3.5.0</version>
</dependency>
2.使用
package cn.coreqi;
import org.apache.kafka.clients.consumer.ConsumerRecord;
import org.apache.spark.SparkConf;
import org.apache.spark.streaming.Durations;
import org.apache.spark.streaming.api.java.*;
import org.apache.spark.streaming.kafka010.ConsumerStrategies;
import org.apache.spark.streaming.kafka010.KafkaUtils;
import org.apache.spark.streaming.kafka010.LocationStrategies;
import org.apache.kafka.common.serialization.StringDeserializer;
import scala.Tuple2;
import java.util.Arrays;
import java.util.Collection;
import java.util.HashMap;
import java.util.Map;
public class Main {
public static void main(String[] args) throws InterruptedException {
// 创建SparkConf对象
SparkConf sparkConf = new SparkConf()
.setMaster("local[*]")
.setAppName("sparkSql");
// 第一个参数表示环境配置,第二个参数表示批量处理的周期(采集周期)
JavaStreamingContext ssc = new JavaStreamingContext(sparkConf, Durations.seconds(3));
// 定义Kafka参数
Map<String, Object> kafkaParams = new HashMap<String, Object>();
kafkaParams.put("bootstrap.servers", "192.168.58.130:9092,192.168.58.131:9092,192.168.58.132:9092");
kafkaParams.put("key.deserializer", StringDeserializer.class);
kafkaParams.put("value.deserializer", StringDeserializer.class);
kafkaParams.put("group.id", "coreqi"); // 配置消费者组
kafkaParams.put("auto.offset.reset", "latest");
kafkaParams.put("enable.auto.commit", false);
// 配置 kafka主题
Collection<String> topics = Arrays.asList("topicA", "topicB");
//读取kafka数据创建DStream
// kafka传入的K,V均为string类型
JavaInputDStream<ConsumerRecord<String, String>> kafkaDataDS =
KafkaUtils.createDirectStream(ssc,
LocationStrategies.PreferConsistent(), //位置策略,采集节点和计算节点如何做匹配,此值为'由框架自行匹配'
ConsumerStrategies.<String, String>Subscribe(topics, kafkaParams)); //消费者策略,订阅
JavaPairDStream<String, String> mapToPair = kafkaDataDS.mapToPair(record -> new Tuple2<>(record.key(), record.value()));
mapToPair.print();
// 由于SparkStreaming采集器是长期执行的任务,所以不能直接关闭
// 如果main方法执行完毕,应用程序也会自动结束,所以不能让main执行完毕
ssc.start(); // 启动采集器
ssc.awaitTermination(); // 等待采集器的关闭
}
}
作者:奇
出处:https://www.cnblogs.com/fanqisoft/p/17966384
版权:本作品采用「本文版权归作者和博客园共有,欢迎转载,但必须给出原文链接,并保留此段声明,否则保留追究法律责任的权利。」许可协议进行许可。
如果文章内容对您有所帮助,欢迎赞赏.
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 阿里最新开源QwQ-32B,效果媲美deepseek-r1满血版,部署成本又又又降低了!
· 单线程的Redis速度为什么快?
· SQL Server 2025 AI相关能力初探
· AI编程工具终极对决:字节Trae VS Cursor,谁才是开发者新宠?
· 展开说说关于C#中ORM框架的用法!
2019-01-15 在Spring(4.3.22)中集成Hibernate(5.4.0)
2019-01-15 Hibernate5.4的环境搭建