随笔 - 39  文章 - 0  评论 - 0  阅读 - 4234

随笔分类 -  spark

Spark API
摘要:Spark API 创建spark环境 方法一:SparkConf //spark环境配置对象 val conf = new SparkConf() //设置spark任务的名称 conf.setAppName("Demo1WordCount") //设置spark运行模式,local:本地运行 c 阅读全文
posted @ 2022-07-20 11:12 +1000 阅读(388) 评论(0) 推荐(0) 编辑
Spark WordCount
摘要:WordCount基本流程和spark实现 ####基本流程 1.创建spark环境 2.创建创建spark上下文对象,也就是spark写代码的入口 3.读取文件中的数据 4.首先将每一行数据展开,让每一个word单独一行 5.将word进行分组 6.对word出现的次数分别统计 7.将结果保存在新 阅读全文
posted @ 2022-07-13 20:16 +1000 阅读(51) 评论(0) 推荐(0) 编辑
spark RDD
摘要:什么是RDD RDD(Resilient Distributed Dataset)叫做弹性分布式数据集 RDD是Spark中的抽象数据结构类型,Spark中最基本的数据抽象,实现了以操作本地集合的方式来操作分布式数据集的抽象实现, 它代表一个不可变、可分区、里面的元素可并行计算的集合。 RDD具有数 阅读全文
posted @ 2022-07-13 20:02 +1000 阅读(29) 评论(0) 推荐(0) 编辑
spark与MapReduce的区别
摘要:spark与MapReduce的区别 内存和磁盘的区别 spark最核心的概念是RDD(弹性分布式数据集),它的所有RDD在并行运算过程程中,可以做到数据共享,也就是可以重复使用mr在计算过程中 mapr:一次数据过程包含从共享文件系统读取数据、进行计算、完成计算、写入计算结果到共享存储中,在计算过 阅读全文
posted @ 2022-07-11 21:57 +1000 阅读(1342) 评论(0) 推荐(0) 编辑

< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5

点击右上角即可分享
微信分享提示