spark笔记

spark-project.org 下载pre_版非withoutHadoop版本的包(已经编译好的集成Hadoop的spark包)

设置环境变量:

SPARK_HOME:   解压好的spark目录

path:   %spark_home%/bin 

然后cmd输入spark-shell

如果不能使用继续配置sparkclasspath

SPARK_CLASSPATH(如果是1.0+以上版本可以去掉这个配置否则会给予警告):

%SPARK_HOME%/lib/spark-assembly-1.6.1-hadoop2.2.0.jar;

%SPARK_HOME%/lib/spark-1.6.1-yarn-shuffle.jar;

%SPARK_HOME%/lib/spark-examples-1.6.1-hadoop2.2.0.jar

二、配置Hadoop

1:仅下载git中bin文件目录(https://github.com/sdravida/hadoop2.6_Win_x64/tree/master/bin)

把下载的bin放入新建的Hadoop文件夹中

2:然后配置HADOOP_HOME(直接是Hadoop目录)

3:然后配置到path中  %HADOOP_HOME%/bin

 

posted @ 2016-04-13 14:09  oceanyang  阅读(124)  评论(0编辑  收藏  举报