http://my.oschina.net/laigous/blog/478438
下载的是spark for hadoop 2.6版本
安装成功后,master上应有一个Master进程,slave上应有一个Worker进程,如果报错,就在对应的logs里找出错原因。
这次slave上总是装不上的原因是lib里有两个版本的jar,删掉一个就可以了
Copyright @ 2024 攻城狮科学家 Powered by .NET 8.0 on Kubernetes Powered by: .Text and ASP.NET Theme by: .NET Monster