会员
周边
众包
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
ZJdiem
博客园
首页
新随笔
联系
订阅
管理
2019年10月13日
Hadoop+Spark分布式集群环境搭建
摘要: Hadoop是一个能够让用户轻松架构和使用的分布式计算平台,而Spark 是一个新兴的大数据处理通用引擎,提供了分布式的内存抽象。 下面使用在同一个局域网下的两台电脑搭建分布式计算的环境: 其中JDK、Hadoop、Spark都已经在两台电脑上安装好。 一台Ubuntu主机系统Master,IP地址
阅读全文
posted @ 2019-10-13 01:50 ZJdiem
阅读(1106)
评论(0)
推荐(0)
编辑
公告