摘要:
目的是将phoenix做存储,spark做计算层。这样就结合了phoenix查询速度快和spark计算速度快的优点。在这里将Phoenix的表作为spark的RDD或者DataFrames来操作,并且将操作的结果写回phoenix中。这样做也扩大了两者的使用场景。 Phoenix 版本 4.4.0H 阅读全文
posted @ 2016-08-25 11:07 来碗酸梅汤 阅读(6247) 评论(0) 推荐(0) 编辑
摘要:
目的是将phoenix做存储,spark做计算层。这样就结合了phoenix查询速度快和spark计算速度快的优点。在这里将Phoenix的表作为spark的RDD或者DataFrames来操作,并且将操作的结果写回phoenix中。这样做也扩大了两者的使用场景。 Phoenix 版本 4.4.0H 阅读全文
posted @ 2016-08-25 11:07 来碗酸梅汤 阅读(6247) 评论(0) 推荐(0) 编辑
摘要:
hbase-site.xml中配置 否则报错 Error: ERROR 1029 (42Y88): Mutable secondary indexes must have the hbase.regionserver.wal.codec property set to org.apache.hado 阅读全文
posted @ 2016-08-25 10:59 来碗酸梅汤 阅读(439) 评论(0) 推荐(0) 编辑
摘要:
class pyspark.sql.SQLContext(sparkContext, sparkSession=None, jsqlContext=None) spark、spark1.x以结构化数据(rows and columns)为内容的工作进入点 spark2.0中被替代为SparkSess 阅读全文
posted @ 2016-08-09 14:58 来碗酸梅汤 阅读(1445) 评论(0) 推荐(0) 编辑 |
||