摘要:
在这里我们不需要搭建独立的Spark集群,利用Yarn Client调用Hadoop集群的计算资源。Spark源码编译生成配置包:解压源码,在根去根目录下执行以下命令(sbt编译我没尝试) ./make-distribution.sh --hadoop 2.4.0 --with-yarn --t... 阅读全文
摘要:
首先要对源码进行编译,生成对应hadoop版本的spark开发程序jar包,上篇已经写了具体的过程,这里不再赘述。在安装spark的机器上,下载eclipse-java-x86_64版本,将spark-assembly.jar和spark/lib下全部加进路径,建立普通java projectWor... 阅读全文