摘要: 用logstash 作数据的聚合统计 以spark-streaming 处理消费数据,统计日志经spark sql存储在mysql中 日志写入方式为append val wordsDataFrame = rdd.toDF("supplier", "type", "domain", "pdate", 阅读全文
posted @ 2018-07-02 10:00 cclient 阅读(1264) 评论(0) 推荐(1) 编辑