SparkStreaming基于Receiver的方式对接Kafka

package SparkStreaming

import org.apache.spark.streaming.dstream.{DStream, ReceiverInputDStream}
import org.apache.spark.streaming.kafka.KafkaUtils
import org.apache.spark.streaming.{Seconds, StreamingContext}
import org.apache.spark.{SparkConf, SparkContext}

/**
 * Created by 古城小巷少年 on 2020-01-02 16:29
 * 采用Receiver-based Approach的方式从Kafka拉取数据,偏移量记录在zookeeper上,调用高级API,但是效率低
 * 1)高级API优点
 * 高级API 写起来简单
 * 不需要自行去管理offset,系统通过zookeeper自行管理。
 * 不需要管理分区,副本等情况,.系统自动管理。
 * 消费者断线会自动根据上一次记录在zookeeper中的offset去接着获取数据(默认设置1分钟更新一下zookeeper中存的offset)
 * 可以使用group来区分对同一个topic 的不同程序访问分离开来(不同的group记录不同的offset,这样不同程序读取同一个topic才不会因为offset互相影响)
 * 2)高级API缺点
 * 不能自行控制offset(对于某些特殊需求来说)
 * 不能细化控制如分区、副本、zk等
 */

object KafkaWordCount {

  def main(args: Array[String]): Unit = {

    val conf = new SparkConf().setAppName("kafkaWordCount").setMaster("local[*]")

    val ssc = new StreamingContext(conf, Seconds(5))

    // 创建DSteam,需要KafkaDStream
    val zkQuorum = "hadoop102:2181,hadoop103:2181,hadoop104:2181"
    val groupId = "g1"
    val topic = Map[String, Int]("test"-> 1)

    val data: ReceiverInputDStream[(String, String)] = KafkaUtils.createStream(ssc, zkQuorum, groupId, topic)

    // 对数据进行处理
    val lines: DStream[String] = data.map(_._2)

    val reduced: DStream[(String, Int)] = lines.flatMap(_.split(" ")).map((_,1)).reduceByKey(_+_)

    // 打印结果
    reduced.print()

    // 启动执行
    ssc.start()

    // 等待优雅地退出
    ssc.awaitTermination()

  }

}
posted @ 2020-01-03 13:26  Lucas_zhao  阅读(320)  评论(0编辑  收藏  举报