Spark入门教程收集

 
Spark教程
Apache Spark是一个开源集群计算框架。其主要目的是处理实时生成的数据。
Spark建立在Hadoop MapReduce的顶部。它被优化为在内存中运行,而Hadoop的MapReduce等替代方法将数据写入计算机硬盘驱动器或从计算机硬盘驱动器写入数据。因此,Spark比其他替代方案更快地处理数据。
 
Spark架构依赖于两个抽象:
  • 弹性分布式数据集(RDD)
  • 有向无环图(DAG)
scala> val data = sc.parallelize(List(10,20,30))
data: org.apache.spark.rdd.RDD[Int] = ParallelCollectionRDD[2] at parallelize at <console>:24

scala> data.collect
res3: Array[Int] = Array(10, 20, 30)

scala> val abc = data.filter(x => x!=30)
 
Spark 编程指南
 
Spark SQL教程
 
Spark Overview
Programming Guides:
API Docs:
 
Quick Start
 
RDD Programming Guide
 
Spark 3.0.1 ScalaDoc
 
Apache Spark Examples
Additional Examples
Many additional examples are distributed with Spark:
 
 
 
 
史上最简单的spark系列教程 | 完结

posted @   船长博客  阅读(1015)  评论(0编辑  收藏  举报
编辑推荐:
· AI与.NET技术实操系列(二):开始使用ML.NET
· 记一次.NET内存居高不下排查解决与启示
· 探究高空视频全景AR技术的实现原理
· 理解Rust引用及其生命周期标识(上)
· 浏览器原生「磁吸」效果!Anchor Positioning 锚点定位神器解析
阅读排行:
· DeepSeek 开源周回顾「GitHub 热点速览」
· 物流快递公司核心技术能力-地址解析分单基础技术分享
· .NET 10首个预览版发布:重大改进与新特性概览!
· AI与.NET技术实操系列(二):开始使用ML.NET
· .NET10 - 预览版1新功能体验(一)
永远相信美好的事情即将发生!
点击右上角即可分享
微信分享提示