摘要:
配置完spark之后,使用spark实现wordcount,这一部分完全参考《深入理解Spark:核心思想与源码分析》 依然使用hadoop wordcountTest的那几个txt文件 进入spark的bin目录,打开spark-shell 在打开的scala命令行中依次输入以下几个语句: 部分w 阅读全文
摘要:
参考《深入理解Spark:核心思想与源码分析》 Spark使用Scala进行编写,而Scala又是基于JVM运行,所以需要先安装JDK,这个不再赘述。 1.安装Scala 安装获取Scala: 将下载的文件移动到自家想要放置的目录。 修改压缩文件的权限为755(所有者读写执行,同组成员读和执行,其他 阅读全文
摘要:
搭建完成Hadoop后,第一个demon,wordcount。此处参考:http://blog.csdn.net/wangjia55/article/details/53160679 wordcount是hadoop的入门经典. 1.在某个目录下新建若干文件,我在各个文件里都添加了一些英文文章段落: 阅读全文