spark sql使用sequoiadb作为数据源

目前没有实现,理一下思路,有3中途径:

1:spark core可以使用sequoiadb最为数据源,那么是否spark sql可以直接操作sequoiadb.

2: spark sql支持Hive, sequoiadb可以和hive做对接,那么是否可以通过HIveContext 来实现。

3:spark 1.2以后支持了external datasource ,需要实现相关的接口来对接第三方数据源。

 

posted @ 2015-01-17 14:19  高兴的博客  阅读(426)  评论(0编辑  收藏  举报