摘要: 今天第一步学习Spark: 定义: Apache Spark 是专为大规模数据处理而设计的快速通用的计算引擎。Spark是UC Berkeley AMP lab (加州大学伯克利分校的AMP实验室)所开源的类Hadoop MapReduce的通用并行框架,Spark,拥有Hadoop MapRedu 阅读全文
posted @ 2020-01-19 15:57 田智凯 阅读(126) 评论(0) 推荐(0) 编辑