Spark Core官网学习回顾
Speed
disk 10x
memory 100x
Easy
code
interactive shell
Unified Stack
Batch
Streaming
ML
Graph
Deployment
Local
Standalone
YARN
K8S
Multi Language
Scala
Python
R
Java
RDD: Resilient Distributed Dataset
five <==> source code
Create way:
textFile: local HDFS s3
parallelize: test
Transformation
lazy evaluated
map filter flatMap
Action
eager
return a value to Driver
collect reduce count take top
Cache
处理的日志: (有问题,就是有脏数据,(考虑代码的健壮性,所以要在代码中进行判断))
别想当然是正确的
虽然说日志中每个字段的含义以及分隔符是什么都是事先定义好的
一行核心代码,需要N多行代码来保障
LogApp: 目的性
了解Spark如何进行大数据业务处理
掌握生产上边界值 ==》 使的你的代码
运行架构是什么样子的呢? ********
一个task就是一个分区
一个core上有多个线程 看并行度
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· SQL Server 2025 AI相关能力初探
· Linux系列:如何用 C#调用 C方法造成内存泄露
· AI与.NET技术实操系列(二):开始使用ML.NET
· 记一次.NET内存居高不下排查解决与启示
· 探究高空视频全景AR技术的实现原理
· 阿里最新开源QwQ-32B,效果媲美deepseek-r1满血版,部署成本又又又降低了!
· SQL Server 2025 AI相关能力初探
· AI编程工具终极对决:字节Trae VS Cursor,谁才是开发者新宠?
· 开源Multi-agent AI智能体框架aevatar.ai,欢迎大家贡献代码
· Manus重磅发布:全球首款通用AI代理技术深度解析与实战指南