01 2022 档案

摘要:rdd依赖关系 (1)RDD 血缘关系 val fileRDD: RDD[String] = sc.textFile("input/1.txt") println(fileRDD.toDebugString) println(" ") val wordRDD: RDD[String] = fileR 阅读全文
posted @ 2022-01-21 22:58 chenghaixinag 阅读(25) 评论(0) 推荐(0) 编辑
摘要:... 阅读全文
posted @ 2022-01-20 23:28 chenghaixinag 阅读(10) 评论(0) 推荐(0) 编辑
摘要:今天学习spark的一些行动算子和序列化 (1)行动算子 def main(args: Array[String]): Unit = { val sparkConf = new SparkConf().setMaster("local[*]").setAppName("Operator") val 阅读全文
posted @ 2022-01-18 22:57 chenghaixinag 阅读(26) 评论(0) 推荐(0) 编辑
摘要:.. 阅读全文
posted @ 2022-01-17 23:31 chenghaixinag 阅读(11) 评论(0) 推荐(0) 编辑
摘要:... 阅读全文
posted @ 2022-01-15 22:49 chenghaixinag 阅读(6) 评论(0) 推荐(0) 编辑
摘要:.. 阅读全文
posted @ 2022-01-14 23:41 chenghaixinag 阅读(4) 评论(0) 推荐(0) 编辑
摘要:.. 阅读全文
posted @ 2022-01-13 23:16 chenghaixinag 阅读(8) 评论(0) 推荐(0) 编辑
摘要:spark中wordcount的实现 (1)//aggregateByKeydef wordcount3(sc:SparkContext)={ val fileRDD: RDD[String] = sc.textFile("D:\\qq text\\1791028291\\FileRecv\\《飘》 阅读全文
posted @ 2022-01-12 22:54 chenghaixinag 阅读(142) 评论(0) 推荐(0) 编辑
摘要:.. 阅读全文
posted @ 2022-01-11 23:07 chenghaixinag 阅读(6) 评论(0) 推荐(0) 编辑
摘要:行动算子 (1) def main(args: Array[String]): Unit = { val sparkConf = new SparkConf().setMaster("local[*]").setAppName("Operator") val sc = new SparkContex 阅读全文
posted @ 2022-01-10 23:01 chenghaixinag 阅读(21) 评论(0) 推荐(0) 编辑
摘要:今天完成学习了一个案例的实践和一些spark算子的学习 (1)join def main(args: Array[String]): Unit = { val sparkConf = new SparkConf().setMaster("local[*]").setAppName("Operator 阅读全文
posted @ 2022-01-07 22:00 chenghaixinag 阅读(29) 评论(0) 推荐(0) 编辑
摘要:今天继续学习spark双value算子 (1) def main(args: Array[String]): Unit = { val sparkConf = new SparkConf().setMaster("local[*]").setAppName("Operator15") val sc 阅读全文
posted @ 2022-01-03 23:19 chenghaixinag 阅读(23) 评论(0) 推荐(0) 编辑
摘要:今天学习完单value的算子和双value算子的开始 (1)distinct def main(args: Array[String]): Unit = { val sparkConf = new SparkConf().setMaster("local[*]").setAppName("Opera 阅读全文
posted @ 2022-01-01 23:21 chenghaixinag 阅读(21) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示