摘要: 记录spark的Wordcount小程序:前提:hdfs已经打开创建一个name为wc.input的文件,上传到hdfs中的/user/hadoop/spark/中,内容如上图[root@spark00 hadoop-2.6.0-cdh5.4.0]# bin/hdfs dfs -put wc.inp... 阅读全文
posted @ 2015-12-16 19:15 暗夜小精灵~~ 阅读(284) 评论(0) 推荐(0) 编辑
摘要: 前提,安装了jdk1.7,scala,hadoop单节点步骤:spark-env.sh加入:HADOOP_CONF_DIR=/root/------ 表示使用hdfs上的资源,如果需要使用本地资源,请把这一句注销2,slaves3,spark-defalts.conf-------------------------------------------... 阅读全文
posted @ 2015-12-16 17:54 暗夜小精灵~~ 阅读(221) 评论(0) 推荐(0) 编辑