会员
周边
众包
新闻
博问
闪存
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
三劫散仙
博客园
首页
新随笔
联系
订阅
管理
2016年2月1日
如何使用Spark大规模并行构建索引
摘要: 使用Spark构建索引非常简单,因为spark提供了更高级的抽象rdd分布式弹性数据集,相比以前的使用Hadoop的MapReduce来构建大规模索引,Spark具有更灵活的api操作,性能更高,语法更简洁等一系列优点。 先看下,整体的拓扑图: 然后,再来看下,使用scala写的spark程序: J
阅读全文
posted @ 2016-02-01 13:52 三劫散仙
阅读(1177)
评论(0)
推荐(0)
编辑
公告