Spark学习总结(三)—— Spark Streaming

1、流式数据处理 & 批量数据处理

  描述的是数据处理的方式角度

 

2、实时数据处理 & 离线数据处理

  描述的是数据处理延迟的长短: 实时数据处理一般是毫秒级别延迟

  离线数据处理一般是小时 or 天级别延迟

 

3、SparkStreaming

  准实时(秒、分钟),微批次的数据处理框架

  用于流式数据的处理

 和 Spark 基于 RDD 的概念很相似,Spark Streaming 使用离散化流(discretized stream)作为抽象表示,叫作DStream。DStream 是随时间推移而收到的数据的序列。在内部,每个时间区间收到的数据都作为 RDD 存在,而 DStream 是由这些RDD 所组成的序列(因此得名“离散化”)。所以简单来将,DStream 就是对 RDD 在实时数据处理场景的一种封装。

特点:

【1】易用

【2】容错

【3】易整合到spark体系

 

4、架构图

 

5、背压机制

 Spark 1.5 以前版本,用户如果要限制 Receiver 的数据接收速率,可以通过设置静态配制参数

“spark.streaming.receiver.maxRate”的值来实现,此举虽然可以通过限制接收速率,来适配当前的处理能力, 防止内存溢出,但也会引入其它问题。

 为了更好的协调数据接收速率与资源处理能力,1.5 版本开始 Spark Streaming 可以动态控制数据接收速率来适配集群数据处理能力。背压机制(即 Spark Streaming Backpressure): 根据JobScheduler 反馈作业的执行信息来动态调整 Receiver 数据接收率。

 通过属性“spark.streaming.backpressure.enabled”来控制是否启用 backpressure 机制,默认值false,即不启用

 

6、DStream创建

 测试过程中,可以通过使用ssc.queueStream(queueOfRDDs)来创建DStream,每一个推送到这个队列中的RDD,都会作为一个 DStream 处理。

 

7、自定义数据源

 需要继承 Receiver,并实现 onStart、onStop 方法来自定义数据源采集。

 

8、DStream转换

 DStream 上的操作与 RDD 的类似,分为 Transformations(转换)和 Output Operations(输出)两种,此

外转换操作中还有一些比较特殊的原语,如:updateStateByKey()、transform()以及各种 Window 相关的原语。

  1. 无状态转化操作

 人话:只会统计每个批次内的单词数,而不是所有批次的

 无状态转化操作就是把简单的 RDD 转化操作应用到每个批次上,也就是转化 DStream 中的每一个 RDD。注意,针对键值对的 DStream 转化操作(比如reduceByKey())要添加 import StreamingContext._才能在 Scala 中使用。

【1】Transform

 Transform 允许 DStream 上执行任意的 RDD-to-RDD 函数。即使这些函数并没有在 DStream的 API 中暴露出来,通过该函数可以方便的扩展 Spark API。该函数每一批次调度一次。其实也就是对 DStream 中的 RDD 应用转换。

【2】join

 两个流之间的 join 需要两个流的批次大小一致,这样才能做到同时触发计算。计算过程就是对当前批次的两个流中各自的 RDD 进行 join,与两个 RDD 的 join 效果相同。

  1. 有状态转化操作

 人话:如图,所有的批次处理数据在结束后会放入黄色区域的内存中保存,这样就可以统计所有批次中的单词数了

【1】 UpdateStateByKey

 UpdateStateByKey 原语用于记录历史记录,有时,我们需要在 DStream 中跨批次维护状态(例如流计算中累加 wordcount)。针对这种情况,updateStateByKey()为我们提供了对一个状态变量的访问,用于键值对形式的DStream。给定一个由(键,事件)对构成的 DStream,并传递一个指定如何根据新的事件更新每个键对应状态的函数,它可以构建出一个新的 DStream,其内部数据为(键,状态) 对。 updateStateByKey() 的结果会是一个新的 DStream,其内部的 RDD 序列是由每个时间区间对应的(键,状态)对组成的。

 updateStateByKey 操作使得我们可以在用新信息进行更新时保持任意的状态。为使用这个功能,需要做下面两步:

 1. 定义状态,状态可以是一个任意的数据类型。

 2. 定义状态更新函数,用此函数阐明如何使用之前的状态和来自输入流的新值对状态进行更新。

 使用 updateStateByKey 需要对检查点目录进行配置,会使用检查点来保存状态。

【2】 WindowOperations

 Window Operations 可以设置窗口的大小和滑动窗口的间隔来动态的获取当前 Steaming 的允许状态。所有基于窗口的操作都需要两个参数,分别为窗口时长以及滑动步长。

 窗口时长:计算内容的时间范围;

 滑动步长:隔多久触发一次计算。

注意:这两者都必须为采集周期大小的整数倍。

【3】reduceByKeyAndWindow

 当窗口范围比较大,但是滑动幅度比较小,那么可以采用增加数据和删除数据的方式,无需重复计算,提高效率

 

9、DStream输出

  1. print():在运行流程序的驱动结点上打印 DStream 中每一批次数据的最开始 10 个元素。
  2. foreachRDD(func):这是最通用的输出操作,即将函数 func 用于产生于 stream 的每一个RDD。其中参数传入的函数 func 应该实现将每一个 RDD 中数据推送到外部系统,如将

RDD 存入文件或者通过网络将其写入数据库。

 通用的输出操作 foreachRDD(),它用来对 DStream 中的 RDD 运行任意计算。这和 transform() 有些类似, 都可以让我们访问任意 RDD。在 foreachRDD()中,可以重用我们在 Spark 中实现的所有行动操作。比如,常见的用例之一是把数据写到诸如 MySQL 的外部数据库中。

注意:

 【1】连接不能写在 driver 层面(序列化)

 【2】如果写在 foreach 则每个 RDD 中的每一条数据都创建,得不偿失;

 【3】增加 foreachPartition,在分区创建(获取)

posted @ 2023-07-27 17:53  sftsgly  阅读(51)  评论(0编辑  收藏  举报