Spark程序使用groupByKey后数据存入HBase出现重复的现象

  最近在一个项目中做数据的分类存储,在spark中使用groupByKey后存入HBase,发现数据出现双份( 所有记录的 rowKey 是随机  唯一的 ) 。经过不断的测试,发现是spark的运行参数配置的问题:

 spark.speculation=true , 将其改为false,问题就解决了。哎  , spark运行参数得修改要慎重...

posted @ 2016-01-08 18:23  jechedo  阅读(817)  评论(5编辑  收藏  举报