摘要: a 阅读全文
posted @ 2019-02-03 22:50 papering 阅读(266) 评论(0) 推荐(0) 编辑
摘要: https://mp.weixin.qq.com/s/bGXhC9hvDj4lzK7wYYHGDg 目前,我们使用Filebeat监控日志产生的目录,收集产生的日志,打到logstash集群,接入kafka的topic,再由Spark Streaming 进行实时解析,将解析的结果打入Redis缓存 阅读全文
posted @ 2019-02-03 22:47 papering 阅读(283) 评论(0) 推荐(0) 编辑