Spark学习之路(二)Spark运行模式

一,Spark中的重要角色

  

  Master:运行集群的管理中心(类似Resource Manager,为指点江山的大哥)

  主要负责:1)分配application程序到worker

       2)维护worker节点,应用程序的状态

  

  Worker:负责执行具体的任务(干活儿的小弟)

 

  Driver(驱动器):Spark的驱动器是执行开发程序中的main方法的进程。它负责开发人员编写的用来创建SparkContext、创建RDD,以及进行RDD的转化操作和行动操作代码的执行。如果你是用spark shell,那么当你启动Spark shell的时候,系统后台自启了一个Spark驱动器程序,就是在Spark shell中预加载的一个叫作 scSparkContext对象。如果驱动器程序终止,那么Spark应用也就结束了。

  主要负责:1)把用户程序转为任务

       2)跟踪Executor的运行状况

       3)为执行器节点调度任务

       4)UI展示应用运行状况

  Executor(执行器):Spark Executor是一个工作进程,负责在 Spark 作业中运行任务,任务间相互独立。Spark 应用启动时,Executor节点被同时启动,并且始终伴随着整个 Spark 应用的生命周期而存在。如果有Executor节点发生了故障或崩溃,Spark 应用也可以继续执行,会将出错节点上的任务调度到其他Executor节点上继续运行。

  主要负责:1)负责运行组成Spark应用的任务,并将结果返回给驱动器进程

       2)通过自身的块管理器(Block Manager)为用户程序中要求缓存的RDD提供内存式存储.RDD是直接缓存在Executor进程内的,因此任务可以在运行时充分利用缓存数据加速运算.

 

二,Local模式

  Local模式就是运行在一台计算机上的模式.不做更多赘述

三,Standalone模式

  概述:构建一个由Master+Worker构成的Spark集群,Spark运行在集群中

  

 

 

  

posted @ 2019-01-18 19:07  豪哥搞开发  阅读(280)  评论(0编辑  收藏  举报