会员
周边
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
MoooJL
业精于勤,荒于嬉;行成于思,毁于随
博客园
首页
新随笔
联系
订阅
管理
2021年1月8日
Spark学习--SparkCore01
摘要: RDD为什么会出现? MapReduce 执行迭代计算任务 多个 MapReduce 任务之间没有基于内存的数据共享方式, 只能通过磁盘来进行共享,这种方式明显比较低效 RDD执行迭代计算任务 在 Spark 中, 最终 Job3 从逻辑上的计算过程是: Job3 = (Job1.map).filt
阅读全文
posted @ 2021-01-08 22:33 MoooJL
阅读(99)
评论(0)
推荐(0)
编辑
公告