Spark 任务提交流程
1、spark-shell提交任务,向RM申请资源
2、RM分配container,在对应NodeMANAGER启动AM,然后AM启动driver
3、Driver 向 ResourceManager 申请资源 Executor。
4、RM返回 container 给driver
5、driver在相应NodeMANAGER启动executor
6、executor向driver反向注册
7、Executor 全部注册完,Driver 开始执行 main 函数。
8、Driver 执行函数时,遇到 action 算子就会触发一个 job,根据宽依赖划分 stage,每个 stage 生成 taskSet,将 task 分发到 Executor 上执行。
9、Executor 会不断与 Driver 通信,报告任务运行的情况。
1、参考 https://zhuanlan.zhihu.com/p/400844728
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· winform 绘制太阳,地球,月球 运作规律
· TypeScript + Deepseek 打造卜卦网站:技术与玄学的结合
· Manus的开源复刻OpenManus初探
· 写一个简单的SQL生成工具
· AI 智能体引爆开源社区「GitHub 热点速览」
2021-07-05 hive 正则 同时保留中文英文数字符号 去除非中文