spark实例1---WordCount
import org.apache.spark.rdd.RDD import org.apache.spark.{SparkConf, SparkContext} object WordCount extends App { private val conf = new SparkConf() conf.setMaster("local").setAppName("wc") private val sc: SparkContext = new SparkContext(conf) private val line: RDD[String] = sc.textFile("data/wc.txt") private val word: RDD[String] = line.flatMap(x => x.split(" ")) private val wordAnd1: RDD[(String, Int)] = word.map(x => (x, 1)) private val result: RDD[(String, Int)] = wordAnd1.reduceByKey((x, y) => x + y) result.foreach(println) sc.stop() }
本文来自博客园,作者:jsqup,转载请注明原文链接:https://www.cnblogs.com/jsqup/p/16123610.html
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· TypeScript + Deepseek 打造卜卦网站:技术与玄学的结合
· Manus的开源复刻OpenManus初探
· AI 智能体引爆开源社区「GitHub 热点速览」
· 三行代码完成国际化适配,妙~啊~
· .NET Core 中如何实现缓存的预热?