本机连接Spark Standalone--最简单的spark调试方式

为了既能远程连接spark  查看ui  又能本地练习  安装简单

去官网  http://spark.apache.org/downloads.html  选择对应版本下载 tar包

 

解压 tar -zxvf  spark-2.2.0-bin-hadoop2.6.tgz

sbin/start-master.sh  启动master

sbin/start-slave.sh   启动slave

 

 

正常启动了    在Web-Ui中查看  http://ip地址:8080/

启动spark-shell  spark-shell –master spark://ip地址:7077

测试   spark-submit –class org.apache.spark.examples.SparkPi –master spark://ip地址:7077 examples/jars/spark-examples_2.11-2.2.0.jar 

 

 

 

但是这样的话  本地程序

val conf = new SparkConf().setAppName("WordCount").setMaster("spark://IP地址:7077")

会报错

: Could not locate executable null\bin\winutils.exe in the Hadoop binaries.

下载hadoop 加上这句
System.setProperty("hadoop.home.dir",
"F:\\hadoop2.6(x64)V0.2");

依然报连接超时
org.apache.spark.SparkException: Exception thrown in awaitResult
检查防火墙都没有问题 7077端口也启动了

修改配置文件

vi conf/spark-env.sh

加上这几句

export SPARK_MASTER_HOST=master01
export SPARK_MASTER_PORT=7077
export JAVA_HOME=/opt/java/jdk1.8.0_181
export PATH=$PATH:$JAVA_HOME/bin

jdk要配  不然会报错   

source spark-env.sh

host写master01   然后在系统hosts文件里  配置内网地址  master01   

 

重启spark   

连接后正常

 

 

大数据流动 专注于大数据实时计算,数据治理,数据可视化等技术分享与实践。

请在后台回复关键字下载相关资料。相关学习交流群已经成立,欢迎加入~

 

 

 

posted @   独孤风  阅读(448)  评论(0编辑  收藏  举报
编辑推荐:
· Linux系列:如何用 C#调用 C方法造成内存泄露
· AI与.NET技术实操系列(二):开始使用ML.NET
· 记一次.NET内存居高不下排查解决与启示
· 探究高空视频全景AR技术的实现原理
· 理解Rust引用及其生命周期标识(上)
阅读排行:
· DeepSeek 开源周回顾「GitHub 热点速览」
· 物流快递公司核心技术能力-地址解析分单基础技术分享
· .NET 10首个预览版发布:重大改进与新特性概览!
· AI与.NET技术实操系列(二):开始使用ML.NET
· 单线程的Redis速度为什么快?
点击右上角即可分享
微信分享提示