摘要: 使用Spark构建索引非常简单,因为spark提供了更高级的抽象rdd分布式弹性数据集,相比以前的使用Hadoop的MapReduce来构建大规模索引,Spark具有更灵活的api操作,性能更高,语法更简洁等一系列优点。 先看下,整体的拓扑图: 然后,再来看下,使用scala写的spark程序: J 阅读全文
posted @ 2016-02-01 13:52 三劫散仙 阅读(1177) 评论(0) 推荐(0) 编辑