spark WordCount
spark实现Wordcount
package com.shujia.spark.core import org.apache.spark.rdd.RDD import org.apache.spark.{SparkConf, SparkContext} object Demo1WordCount { def main(args: Array[String]): Unit = { /** * * 1、创建spark 环境 * */ //配置文件对象 val conf = new SparkConf() //任务名 conf.setAppName("wc") //指定运行方法 local:本地运行 conf.setMaster("local") //创建 spark 上下文对象,spark入口 val sc = new SparkContext(conf) /** * * RDD:弹性的分布式数据集 * 可以理解为一个集合 * */ //1、读取数据 val linesRDD: RDD[String] = sc.textFile("data/words.txt") //2、将单词切分出来 val wordsRDD: RDD[String] = linesRDD.flatMap(line=>line.split(",")) //3、按照单词进行分组 val groupRDD: RDD[(String, Iterable[String])] = wordsRDD.groupBy(word=>word) //4、统计单词的数量 val countRDD: RDD[(String, Int)] =groupRDD.map{ case(word:String, ws:Iterable[String])=> //计算单词数量 val count: Int = ws.size (word,count) } //5、整理数据 val resultRDD: RDD[String] =countRDD.map{ case (word:String,count: Int)=> word+"\t"+count } //6、保存数据 resultRDD.saveAsTextFile("data/wc") } }
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· Linux系列:如何用heaptrack跟踪.NET程序的非托管内存泄露
· 开发者必知的日志记录最佳实践
· SQL Server 2025 AI相关能力初探
· Linux系列:如何用 C#调用 C方法造成内存泄露
· AI与.NET技术实操系列(二):开始使用ML.NET
· 【自荐】一款简洁、开源的在线白板工具 Drawnix
· 没有Manus邀请码?试试免邀请码的MGX或者开源的OpenManus吧
· 无需6万激活码!GitHub神秘组织3小时极速复刻Manus,手把手教你使用OpenManus搭建本
· C#/.NET/.NET Core优秀项目和框架2025年2月简报
· DeepSeek在M芯片Mac上本地化部署