2020年2月1日

摘要: 首先对一些spark的基本知识进行了学习 spark的基本工作原理是:将spark的程序提交到spark集群上,在Hadoop的HDFS或者Hive上读取数据,读取的数据存放在各个spark的节点上,分布式的存放在多个节点上,主要在每个节点的内存上,这样可以加快速度。对节点的数据进行处理,处理后的数 阅读全文
posted @ 2020-02-01 13:07 方木Fengl 阅读(180) 评论(0) 推荐(0) 编辑

导航