分布式消息队列kafka系列介绍 — 核心API介绍及实例
原文地址:http://www.inter12.org/archives/834
一 PRODUCER的API
1.Producer的创建,依赖于ProducerConfig
public Producer(ProducerConfig config);
2.单个或是批量的消息发送
public void send(KeyedMessage<K,V> message);
public void send(List<KeyedMessage<K,V>> messages);
3.关闭Producer到所有broker的连接
public void close();
二 CONSUMER的高层API
主要是Consumer和ConsumerConnector,这里的Consumer是ConsumerConnector的静态工厂类
class Consumer {
public static kafka.javaapi.consumer.ConsumerConnector createJavaConsumerConnector(config: ConsumerConfig);
}
具体的消息的消费都是在ConsumerConnector中
创建一个消息处理的流,包含所有的topic,并根据指定的Decoder
public <K,V> Map<String, List<KafkaStream<K,V>>>
createMessageStreams(Map<String, Integer> topicCountMap, Decoder<K> keyDecoder, Decoder<V> valueDecoder);
创建一个消息处理的流,包含所有的topic,使用默认的Decoder
public Map<String, List<KafkaStream<byte[], byte[]>>> createMessageStreams(Map<String, Integer> topicCountMap);
获取指定消息的topic,并根据指定的Decoder
public <K,V> List<KafkaStream<K,V>>
createMessageStreamsByFilter(TopicFilter topicFilter, int numStreams, Decoder<K> keyDecoder, Decoder<V> valueDecoder);
获取指定消息的topic,使用默认的Decoder
public List<KafkaStream<byte[], byte[]>> createMessageStreamsByFilter(TopicFilter topicFilter);
提交偏移量到这个消费者连接的topic
public void commitOffsets();
关闭消费者
public void shutdown();
高层的API中比较常用的就是public List<KafkaStream<byte[], byte[]>> createMessageStreamsByFilter(TopicFilter topicFilter);和public void commitOffsets();
三 CONSUMER的简单API–SIMPLECONSUMER
批量获取消息
public FetchResponse fetch(request: kafka.javaapi.FetchRequest);
获取topic的元信息
public kafka.javaapi.TopicMetadataResponse send(request: kafka.javaapi.TopicMetadataRequest);
获取目前可用的偏移量
public kafka.javaapi.OffsetResponse getOffsetsBefore(request: OffsetRequest);
关闭连接
public void close();
对于大部分应用来说,高层API就已经足够使用了,但是若是想做更进一步的控制的话,可以使用简单的API,例如消费者重启的情况下,希望得到最新的offset,就该使用SimpleConsumer.
四 KAFKA HADOOP CONSUMER API
提供了一个可水平伸缩的解决方案来结合hadoop的使用参见
https://github.com/linkedin/camus/tree/camus-kafka-0.8/
五 实战
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 | maven依赖: <dependency> <groupId>org.apache.kafka</groupId> <artifactId>kafka_2. 10 </artifactId> <version> 0.8 . 0 </version> </dependency> 生产者代码: import kafka.javaapi.producer.Producer; import kafka.producer.KeyedMessage; import kafka.producer.ProducerConfig; import java.util.Properties; /** * <pre> * Created by zhaoming on 14-5-4 下午3:23 * </pre> */ public class KafkaProductor { public static void main(String[] args) throws InterruptedException { Properties properties = new Properties(); properties.put( "zk.connect" , "127.0.0.1:2181" ); properties.put( "metadata.broker.list" , "localhost:9092" ); properties.put( "serializer.class" , "kafka.serializer.StringEncoder" ); ProducerConfig producerConfig = new ProducerConfig(properties); Producer<String, String> producer = new Producer<String, String>(producerConfig); // 构建消息体 KeyedMessage<String, String> keyedMessage = new KeyedMessage<String, String>( "test-topic" , "test-message" ); producer.send(keyedMessage); Thread.sleep( 1000 ); producer.close(); } } 消费端代码 import java.io.UnsupportedEncodingException; import java.util.List; import java.util.Properties; import java.util.concurrent.TimeUnit; import kafka.consumer.*; import kafka.javaapi.consumer.ConsumerConnector; import kafka.message.MessageAndMetadata; import org.apache.commons.collections.CollectionUtils; /** * <pre> * Created by zhaoming on 14-5-4 下午3:32 * </pre> */ public class kafkaConsumer { public static void main(String[] args) throws InterruptedException, UnsupportedEncodingException { Properties properties = new Properties(); properties.put( "zookeeper.connect" , "127.0.0.1:2181" ); properties.put( "auto.commit.enable" , "true" ); properties.put( "auto.commit.interval.ms" , "60000" ); properties.put( "group.id" , "test-group" ); ConsumerConfig consumerConfig = new ConsumerConfig(properties); ConsumerConnector javaConsumerConnector = Consumer.createJavaConsumerConnector(consumerConfig); //topic的过滤器 Whitelist whitelist = new Whitelist( "test-topic" ); List<KafkaStream< byte [], byte []>> partitions = javaConsumerConnector.createMessageStreamsByFilter(whitelist); if (CollectionUtils.isEmpty(partitions)) { System.out.println( "empty!" ); TimeUnit.SECONDS.sleep( 1 ); } //消费消息 for (KafkaStream< byte [], byte []> partition : partitions) { ConsumerIterator< byte [], byte []> iterator = partition.iterator(); while (iterator.hasNext()) { MessageAndMetadata< byte [], byte []> next = iterator.next(); System.out.println( "partiton:" + next.partition()); System.out.println( "offset:" + next.offset()); System.out.println( "message:" + new String(next.message(), "utf-8" )); } } } } |
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 如何编写易于单元测试的代码
· 10年+ .NET Coder 心语,封装的思维:从隐藏、稳定开始理解其本质意义
· .NET Core 中如何实现缓存的预热?
· 从 HTTP 原因短语缺失研究 HTTP/2 和 HTTP/3 的设计差异
· AI与.NET技术实操系列:向量存储与相似性搜索在 .NET 中的实现
· 周边上新:园子的第一款马克杯温暖上架
· Open-Sora 2.0 重磅开源!
· 分享 3 个 .NET 开源的文件压缩处理库,助力快速实现文件压缩解压功能!
· Ollama——大语言模型本地部署的极速利器
· DeepSeek如何颠覆传统软件测试?测试工程师会被淘汰吗?