随笔分类 -  kafka

摘要:python批量向kafka塞数据 from kafka import KafkaClient from kafka.producer import SimpleProducer from kafka import KafkaProducer def send_data_2_kafka_(topic 阅读全文
posted @ 2019-11-19 10:30 小学弟- 阅读(3490) 评论(0) 推荐(0) 编辑
摘要:python-kafka之理论篇 kafka系列文章之python-api的使用。 在使用kafka-python时候需要注意,一定要版本兼容,否则在使用生产者会报 无法更新元数据的错误。 在本片测试中java版本为如下,kafka版本为0.10.0,kafka-python版本为1.3.1,目前最 阅读全文
posted @ 2019-11-12 10:56 小学弟- 阅读(497) 评论(0) 推荐(0) 编辑
摘要:kafka生产者和消费者 在使用kafka时,有时候为验证应用程序,需要手动读取消息或者手动生成消息。这个时候可以借助kafka-console-consumer.sh和kafka-console-producer.sh 这两个工具,它们包装了java客户端,让用户不需要编写整个应用程序就可以与ka 阅读全文
posted @ 2019-11-12 10:55 小学弟- 阅读(593) 评论(0) 推荐(0) 编辑
摘要:kafka数据可靠传输 再说复制Kafka 的复制机制和分区的多副本架构是Kafka 可靠性保证的核心。把消息写入多个副本可以使Kafka 在发生崩愤时仍能保证消息的持久性。Kafka 的主题被分为多个分区,分区是基本的数据块。分区存储在单个磁盘上,Kafka 可以保证分区里的事件是有序的,分区可以 阅读全文
posted @ 2019-11-12 10:54 小学弟- 阅读(299) 评论(0) 推荐(0) 编辑
摘要:深入理解kafka 摘自: 《kafka权威指南》 集群间成员关系 Kafka 使用Zoo keeper 来维护集群成员的信息。每个broker 都有一个唯一标识符,这个标识符可以在配置文件里指定,也可以自动生成。在broker 启动的时候,它通过创建临时节点把自己的ID 注册到Zookeeper 阅读全文
posted @ 2019-11-12 10:53 小学弟- 阅读(401) 评论(0) 推荐(0) 编辑
摘要:kafka-python的API简单介绍 在官方文档详细列出了kafka-python的API接口https://kafka-python.readthedocs.io/en/master/apidoc/KafkaConsumer.html #send方法的详细说明,send用于向主题发送信息sen 阅读全文
posted @ 2019-11-12 10:51 小学弟- 阅读(1059) 评论(0) 推荐(0) 编辑
摘要:kafka实战教程(python操作kafka),kafka配置文件详解 应用往Kafka写数据的原因有很多:用户行为分析、日志存储、异步通信等。多样化的使用场景带来了多样化的需求:消息是否能丢失?是否容忍重复?消息的吞吐量?消息的延迟? kafka介绍 Kafka属于Apache组织,是一个高性能 阅读全文
posted @ 2019-11-12 10:48 小学弟- 阅读(4901) 评论(0) 推荐(0) 编辑
摘要:# -- coding: UTF-8 import datetime import json import time from kafka import KafkaProducer producer=KafkaProducer(bootstrap_servers='192.168.10.10:909 阅读全文
posted @ 2019-11-11 20:35 小学弟- 阅读(4017) 评论(0) 推荐(0) 编辑
摘要:python操作kafka 一、什么是kafka kafka特性: (1) 通过磁盘数据结构提供消息的持久化,这种结构对于即使数以TB的消息存储也能够保持长时间的稳定性能. (2) 高吞吐量 :即使是非常普通的硬件Kafka也可以支持每秒数百万的消息. (3) 支持通过Kafka服务器和消费机集群来 阅读全文
posted @ 2019-11-11 15:59 小学弟- 阅读(1602) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示