2023年1月12日

pyspark

摘要: ##spark 用于大规模数据处理的统一(适用面广)分析引擎(数据处理)。 ###RDD:弹性分布式数据集。 rdd是一种分布式内存抽象,能够在大规模集群中做内存运算,并且有一定的容错方式。 ####spark 特点: 对任意类型的数据进行自定义计算。 spark 可以计算: 结构化,半结构化,非结 阅读全文

posted @ 2023-01-12 23:17 xm微微一笑 阅读(233) 评论(0) 推荐(0) 编辑

导航