01 2017 档案
摘要:Windows下搭建Spark+Hadoop开发环境需要一些工具支持。 只需要确保您的电脑已装好Java环境,那么就可以开始了。 一. 准备工作 1. 下载Hadoop2.7.1版本(写Spark和Hadoop主要是用到了Yarn,因此Hadoop必须安装) 下载地址:http://apache.f
阅读全文
摘要:Ubuntu下安装mod_python3.4.1版本报出如下错误: 已经证实,这是这个版本的bug。网上有说“git init”可解决,我试了并不行,会产生新的报错。我的解决方法是,找到mod_python的dist文件夹下的version.sh文件,注释或者直接删掉: 同时修改最后一行为: 重新编
阅读全文