攻城狮科学家

  博客园  :: 首页  :: 新随笔  :: 联系 :: 订阅 订阅  :: 管理

http://my.oschina.net/laigous/blog/478438

 

下载的是spark for hadoop 2.6版本

安装成功后,master上应有一个Master进程,slave上应有一个Worker进程,如果报错,就在对应的logs里找出错原因。

这次slave上总是装不上的原因是lib里有两个版本的jar,删掉一个就可以了

posted on 2015-12-02 17:03  攻城狮科学家  阅读(145)  评论(0编辑  收藏  举报