【Spark集群】一、配置搭建
一、standalone的搭建
export JAVA_HOME=/opt/module/jdk1.8.0_301 SPARK_MASTER_HOST=hadoop101 SPARK_MASTER_PORT=7077 bin/spark-submit \ --class org.apache.spark.examples.SparkPi \ --master spark://hadoop101:7077 \ ./examples/jars/spark-examples_2.12-3.0.0.jar \ 10 spark.eventLog.enabled true spark.eventLog.dir hdfs://hadoo101:8020/directory hadoop fs -mkdir /spark_eventLog_directory export SPARK_HISTORY_OPTS=" -Dspark.history.ui.port=18080 -Dspark.history.fs.logDirectory=hdfs://hadoop101:8020/spark_eventLog_directory -Dspark.history.retainedApplications=30"
二、yarn模式启动
spark-yarn相当作为客户端,只需要一个
yarn-site.xml <!--是否启动一个线程检查每个任务正使用的物理内存量,如果任务超出分配值,则直接将其杀掉,默认 是 true --> <property> <name>yarn.nodemanager.pmem-check-enabled</name> <value>false</value> </property> <!--是否启动一个线程检查每个任务正使用的虚拟内存量,如果任务超出分配值,则直接将其杀掉,默认 是 true --> <property> <name>yarn.nodemanager.vmem-check-enabled</name> <value>false</value> </property> 提交脚本命令 bin/spark-submit \ --class org.apache.spark.examples.SparkPi \ --master yarn \ --deploy-mode cluster \ ./examples/jars/spark-examples_2.12-3.0.0.jar \ 10