摘要: 推送式 将flume采集的数据主动推送给Spark程序,容易导致Spark程序接受数据出问题,推送式整合是基于avro端口下沉地方式完成 引入SparkStreaming和Flume整合的依赖 <dependency> <groupId>org.apache.spark</groupId> <art 阅读全文
posted @ 2022-08-31 19:45 jsqup 阅读(90) 评论(0) 推荐(0) 编辑
摘要: sparkstreaming创建有两种方式 1. 借助SparkConf对象创建 val conf = new SparkConf().setAppName("streamingContext").setMaster("local[4]") /** * streamingcontext第一种创建方式 阅读全文
posted @ 2022-08-31 16:47 jsqup 阅读(135) 评论(0) 推荐(0) 编辑
摘要: 端口 // 地址,端口号,级别(将数据存储在所设置的级别中,这里设置级别为spark的内存) val ds: DStream[String] = ssc.socketTextStream("node1", 44444, StorageLevel.MEMORY_ONLY) 读取HDFS中的数据 imp 阅读全文
posted @ 2022-08-31 16:29 jsqup 阅读(17) 评论(0) 推荐(0) 编辑
摘要: 安装nc yum install -y nc 说明 -l, --listen Bind and listen for incoming connections -k, --keep-open Accept multiple connections in listen mode 使用 nc -lk 端 阅读全文
posted @ 2022-08-31 15:17 jsqup 阅读(14) 评论(0) 推荐(0) 编辑