摘要:
所谓运行模式,就是指spark应用跑在什么地方。mr程序可以在本地运行,也可以提交给yarn运行。这个概念是一样的。 跟其他Hadoop生态圈的组件一样,spark也需要JDK的环境,此外还需要SCALA环境。所以在安装spark之前要先安装好JDK和SCALA。 ( 我的 jdk 版本是 1.8 阅读全文
摘要:
package com.rabbit.hadoop.testEnv; import java.io.IOException;import java.util.List;import java.util.concurrent.ExecutorService;import java.util.concu 阅读全文