摘要: 所谓运行模式,就是指spark应用跑在什么地方。mr程序可以在本地运行,也可以提交给yarn运行。这个概念是一样的。 跟其他Hadoop生态圈的组件一样,spark也需要JDK的环境,此外还需要SCALA环境。所以在安装spark之前要先安装好JDK和SCALA。 ( 我的 jdk 版本是 1.8 阅读全文
posted @ 2019-03-19 17:07 Rabbit624 阅读(2317) 评论(0) 推荐(0) 编辑
摘要: package com.rabbit.hadoop.testEnv; import java.io.IOException;import java.util.List;import java.util.concurrent.ExecutorService;import java.util.concu 阅读全文
posted @ 2019-03-19 09:36 Rabbit624 阅读(376) 评论(0) 推荐(0) 编辑