会员
周边
众包
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
李昊宗
博客园
首页
新随笔
新文章
联系
订阅
管理
2019年3月27日
05-spark streaming & kafka
摘要: 1、如何消费已经被消费过的数据? 答:采用不同的group 2、如何自定义去消费已经消费过的数据? Conosumer.properties配置文件中有两个重要参数 auto.commit.enable:如果为true,则consumer的消费偏移offset会被记录到zookeeper。下次con
阅读全文
posted @ 2019-03-27 08:54 李昊宗
阅读(571)
评论(0)
推荐(0)
编辑