摘要: 1. 运行sbin/spark-config.sh,设置SPARK_HOME和SPARK_CONF_DIR2. 如果conf/spark-env.sh,则运行该脚本,设置可选环境变量3. 检测环境变量SPARK_MASTER_PORT/SPARK_MASTER_IP,为master的端口/ip,默认为7077/{hostname}以上三项基本同start-master.sh相同4. 检测SPARK_WORKER_INSTANCES1) 如果为空,则执行脚本sbin/slaves.sh并传入命令sbin/slaves.sh的作用是使用ssh免登录进入slaves执行命令传入的命令是sbin/st 阅读全文
posted @ 2014-03-24 23:47 飞天虎 阅读(1477) 评论(0) 推荐(0) 编辑
摘要: 1. 运行sbin/spark-config.sh,设置SPARK_HOME和SPARK_CONF_DIR2. 如果conf/spark-env.sh,则运行该脚本,设置可选环境变量3. 检测环境变量SPARK_MASTER_PORT/SPARK_MASTER_IP/SPARK_MASTER_WEBUI_PORT,为master的端口/ip/web界面端口,默认为7077/{hostname}/80804. 检测环境变量SPARK_PUBLIC_DNS,基于EC2的配置,略过...5. 运行sbin/spark-daemon.shstart org.apache.spark.deploy.ma 阅读全文
posted @ 2014-03-24 23:40 飞天虎 阅读(626) 评论(0) 推荐(0) 编辑
摘要: 设置环境变量export SPARK_PREFIX=`dirname "$this"`/..export SPARK_HOME=${SPARK_PREFIX}export SPARK_CONF_DIR="$SPARK_HOME/conf"即SPARK_PREFIX和SPARK_HOME设置为脚本目录的父目录SPARK_CONF_DIR设置为主目录下conf目录 阅读全文
posted @ 2014-03-24 23:32 飞天虎 阅读(327) 评论(0) 推荐(0) 编辑