Spark 任务提交流程

 

1、spark-shell提交任务,向RM申请资源
2、RM分配container,在对应NodeMANAGER启动AM,然后AM启动driver
3、Driver 向 ResourceManager 申请资源 Executor。
4、RM返回 container 给driver
5、driver在相应NodeMANAGER启动executor
6、executor向driver反向注册
7、Executor 全部注册完,Driver 开始执行 main 函数。
8、Driver 执行函数时,遇到 action 算子就会触发一个 job,根据宽依赖划分 stage,每个 stage 生成 taskSet,将 task 分发到 Executor 上执行。
9、Executor 会不断与 Driver 通信,报告任务运行的情况。

 

1、参考 https://zhuanlan.zhihu.com/p/400844728

 

2、原创 | 9张图详解Yarn的工作机制,惊艳阿里面试官 (qq.com)

posted @   cup_leo  阅读(1084)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· winform 绘制太阳,地球,月球 运作规律
· TypeScript + Deepseek 打造卜卦网站:技术与玄学的结合
· Manus的开源复刻OpenManus初探
· 写一个简单的SQL生成工具
· AI 智能体引爆开源社区「GitHub 热点速览」
历史上的今天:
2021-07-05 hive 正则 同时保留中文英文数字符号 去除非中文
点击右上角即可分享
微信分享提示