会员
周边
众包
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
知己一生
博客园
首页
新随笔
联系
订阅
管理
2020年3月1日
Spark介绍
摘要: 通常当我们计算的数据超过了单机维度,比如我们的PC内存共8G,而需要计算的数据为100G,这时候我们通常选择大数据集群进行计算。 Spark是大数据处理的计算引擎。,这是它的发展是为了解决替代Hadoop的MapReduce计算引擎。 Hadoop的架构如下,核心包括两点:Hdfs和MapReduc
阅读全文
posted @ 2020-03-01 14:51 知己一生
阅读(232)
评论(0)
推荐(0)
编辑