I love myself and love all love self's people

}
摘要: SparkStreaming整合flume 在实际开发中push会丢数据,因为push是由flume将数据发给程序,程序出错,丢失数据。所以不会使用不做讲解,这里讲解poll,拉去flume的数据,保证数据不丢失。 1.首先你得有flume 比如你有:【如果没有请走这篇:搭建flume集群(待定)】 阅读全文
posted @ 2019-07-22 23:37 强行快乐~ 阅读(548) 评论(0) 推荐(0) 编辑
摘要: 体现sparkStreaming的秒级准实时性,所以我们需要一个能够持续输入数据的东东 1.CentOS上下载nc 创建一个scala工程,导入相关pom依赖 创建一个object 编写代码 跑起来 使用scoket nc打开9999端口发送数据 测试 阅读全文
posted @ 2019-07-22 19:27 强行快乐~ 阅读(1615) 评论(2) 推荐(0) 编辑
摘要: 这是2种不同的架构。 他们的区别是SparkStreaming的吞吐量非常高,秒级准实时处理,Storm是容错性非常高,毫秒级实时处理 解释:sparkStreaming是一次处理某个间隔的数据,比如5秒内的数据,批量处理,所以吞吐量高。 Storm是来一条处理一条,所以速度快,不存在丢失数据 应用 阅读全文
posted @ 2019-07-22 16:46 强行快乐~ 阅读(1063) 评论(0) 推荐(1) 编辑

联系qq:1035133465