-
分配更多的资源
/usr/local/spark/bin/spark-submit \
--class cn.spark.workcount \
-num-executor 3 \ //配置executoe的数量
-driver-memory 100m \ //配置driver的内存
-executor-memory 100m \ //配置每个executor的内存大小
-executor-cores 3 \ // 配置每个executor的cpu core数量
/usr/local/sparkWork.jar //
作者:willian
联系邮箱:18702515157@163.com