willian
18702515157@163.com
  1. 分配更多的资源

    /usr/local/spark/bin/spark-submit \
    --class cn.spark.workcount \
    -num-executor 3 \ //配置executoe的数量
    -driver-memory 100m \ //配置driver的内存
    -executor-memory 100m \ //配置每个executor的内存大小
    -executor-cores 3 \ // 配置每个executor的cpu core数量
    /usr/local/sparkWork.jar //

     

posted on 2017-04-18 21:19  willian_zhang  阅读(174)  评论(0编辑  收藏  举报