摘要:
记录spark的Wordcount小程序:前提:hdfs已经打开创建一个name为wc.input的文件,上传到hdfs中的/user/hadoop/spark/中,内容如上图[root@spark00 hadoop-2.6.0-cdh5.4.0]# bin/hdfs dfs -put wc.inp... 阅读全文
摘要:
前提,安装了jdk1.7,scala,hadoop单节点步骤:spark-env.sh加入:HADOOP_CONF_DIR=/root/------ 表示使用hdfs上的资源,如果需要使用本地资源,请把这一句注销2,slaves3,spark-defalts.conf-------------------------------------------... 阅读全文