摘要: Spark是一个开源的类似于Hadoop MapReduce的通用的并行计算框架,Spark基于map reduce算法实现的分布式计算,拥有Hadoop MapReduce所具有的优点;但不同于MapReduce的是Spark中的Job中间输出和结果可以保存在内存中,从而不再需要读写HDFS,因此 阅读全文
posted @ 2019-04-07 16:04 lishisan 阅读(120) 评论(0) 推荐(0) 编辑
console.log('The World is Yours');
const aboutMe = {
name: 'LiShiSan',
title: 'Sr. Java/BigData Enthusiast',
location: 'China, BeiJing',
contact: {
email: '1641429327@qq.com',
website:'www.lishisan.top
}
}