会员
周边
众包
新闻
博问
闪存
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
zhanglijie1
博客园
首页
新随笔
联系
订阅
管理
2020年1月26日
寒假第一天
摘要: 今天了解了一下Spark,Apache Spark 是一个新兴的大数据处理通用引擎,提供了分布式的内存抽象。Spark 最大的特点就是快,可比 Hadoop MapReduce 的处理速度快 100 倍,还有Spack的生态体系, 1、Python编程语言; 2、Scala编程语言; 3、Spark
阅读全文
posted @ 2020-01-26 19:28 张利杰j
阅读(71)
评论(0)
推荐(0)
编辑
公告