spark第四天

今天继续安装spqrk 

Spark安装

 

 

 

在Spark官网:http://spark.apache.org/downloads.html  下载Spark

并在修改Spark的配置文件spark-env.sh添加输入下列命令:

export SPARK_DIST_CLASSPATH=$(/usr/local/hadoop/bin/hadoop classpath)

如图:

 

 

 测试输入图中命令将输出大量信息

 

 

 

 


 将得到一个π的近似数,说明安装成功

(1)在 spark-shell 中读取 Linux 系统本地文件“/home/hadoop/test.txt”,然后统计出文件的行数;

启动spark-shell

 

 

 

(2)在 spark-shell 中读取 HDFS 系统文件“/user/hadoop/test.txt”(如果该文件不存在,

请先创建),然后,统计出文件的行数;

 

 

 统计结果

安装sbt

 

posted on 2020-02-05 09:54  哈弗h6  阅读(131)  评论(0编辑  收藏  举报

导航