1.背景 在hadoop集群上安装flume,将日志数据传输到HDFS上去 2.规划 三台主机的主机名分别为master,slave1,slave2(防火墙已关闭) 由slave1和slave2收集日志信息,传给master,再由master上传到hdfs上 3.配置 3.1上传解压 在slave1 Read More
背景:在现有的hadoop集群上,进行安装Spark 需要准备:hadoop,scala,jdk spark需要依赖于java运行,所以需要jdk,版本选用2.4.5 scala安装: 必须在jdk安装完毕才安装,下载scala:https://downloads.lightbend.com/sca Read More