1.Spark Context 向集群申请的资源具体有哪些?

内存和CPU

2.Spark Context 通过什么配置方式向集群申请这些资源?或者说如何调节这些资源的数量?

spark的分配资源主要就是 executorcpu per executormemory per executordriver memory 等的调节,在生产环境中,提交spark作业时,用的spark-submit shell脚本,里面调整对应的参数:

spark-submit \

--class cn.spark.sparktest.core.WordCountCluster \

--num-executors 3 \ 配置executor的数量

--driver-memory 100m \ 配置driver的内存(影响不大)

--executor-memory 100m \ 配置每个executor的内存大小

--executor-cores 3 \ 配置每个executorcpu core数量

/usr/local/SparkTest-0.0.1-SNAPSHOT-jar-with-dependencies.jar \

 

参考:

https://www.cnblogs.com/starzy/p/10572157.html

https://blog.csdn.net/Android_xue/article/details/102936844

posted on 2020-07-13 11:13  西伯尔  阅读(359)  评论(0编辑  收藏  举报