01 2017 档案

摘要:Windows下搭建Spark+Hadoop开发环境需要一些工具支持。 只需要确保您的电脑已装好Java环境,那么就可以开始了。 一. 准备工作 1. 下载Hadoop2.7.1版本(写Spark和Hadoop主要是用到了Yarn,因此Hadoop必须安装) 下载地址:http://apache.f 阅读全文
posted @ 2017-01-05 16:50 蓝鲸王子 阅读(3524) 评论(1) 推荐(1) 编辑
摘要:Ubuntu下安装mod_python3.4.1版本报出如下错误: 已经证实,这是这个版本的bug。网上有说“git init”可解决,我试了并不行,会产生新的报错。我的解决方法是,找到mod_python的dist文件夹下的version.sh文件,注释或者直接删掉: 同时修改最后一行为: 重新编 阅读全文
posted @ 2017-01-02 19:59 蓝鲸王子 阅读(480) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示