Spark - [03] 资源调度模式

题记部分

 

一、Local模式

1.1、概述

Local模式就是运行在一台计算机上的模式,通常就是用于在本机上练手和测试的。

可以通过以下几种方式设置Master

(1)local:所欲计算都运行在一个线程当中,没有任何并行计算,通常我们在本机执行一些测试代码,或者练手,就用这种模式。

(2)local[K]:指定使用几个线程来运行计算,比如local[4]就是运行4个Worker线程。通常我们的CPU有几个Core,就指定几个线程,最大化利用CPU的计算能力。

(3)local[*]:这种模式直接帮你按照CPU最多Cores来设置线程数了。

 

1.2、安装使用及测试

(1)将Spark的tar包上传到集群的任意节点的合适目录并解压

(2)使用spark-submit求SparkPi

bin/spark-submit \
--class org.apache.spark.examples.SparkPi \
--executor-memory 1G \
--total-executor-cores 2 \
./exemples/jars/spark-examples_2.11-2.2.1.jar \
100

 

1.3、spark-submit 参数说明

参数名 参数说明
--master master的地址,提交任务到哪里执行(spark://host:port,yarn,local)
--deploy-mode 在本地(client)启动 driver 或在 cluster 上启动,默认是 client
--class 应用程序的主类,仅针对 java 或 scala 应用
--name 应用程序的名称
--jars 用逗号分隔的本地jar包,设置后,这些jar将包含在 driver 和 executor 的classpath下
--packages 包含在 driver 和 executor 的 classpath 中的 jar 的 maven 坐标
--execlude-packages 为了避免冲突而指定不包含的 package
--repositories
远程 repository
--conf PROP=VALUE
指定 spark 的配置属性,例如 --conf spark.executor.extraJavaOptions="-XX:MaxPermSize=256m"
--properties-file
加载的配置文件,默认为 conf/spark-defaults.conf
--driver-memory
Driver 内存,默认 1G
--driver-java-options
传给 driver 的额外的 Java 选项
--driver-library-path
传给 driver 的额外的库路径
--driver-class-path
传给 driver 的额外的类路径
--executor-memory
每个 executor 的内存,默认是 1G
--total-executor-cores
所有 executor 总共的核数。仅仅在 mesos 或者 standalone 下使用
--num-executors
启动的 executor 数量。默认为 2。在 yarn 下使用
--executor-core
每个 executor 的核数。在 yarn 或者 standalone 下使用

 

 

 

 

二、Standalone模式

 

 

三、HA

 

四、Yarn模式

 

五、Mesos模式

 

 

 

— 业精于勤荒于嬉,行成于思毁于随 —

posted @ 2024-10-11 15:37  HOUHUILIN  阅读(3)  评论(0编辑  收藏  举报