会员
周边
众包
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
20173667
博客园
首页
新随笔
联系
订阅
管理
2020年1月31日
spark
摘要: 1开发指南 编辑 从高的层面来看,其实每一个Spark的应用,都是一个Driver类,通过运行用户定义的main函数,在集群上执行各种并发操作和计算Spark提供的最主要的抽象,是一个弹性分布式数据集(RDD),它是一种特殊集合,可以分布在集群的节点上,以函数式编程操作集合的方式,进行各种各样的并发
阅读全文
posted @ 2020-01-31 22:41 20173667
阅读(126)
评论(0)
推荐(0)
编辑
公告