sparkonhbase
import org.apache.hadoop.hbase.HBaseConfiguration import org.apache.hadoop.hbase.client.Result import org.apache.hadoop.hbase.io.ImmutableBytesWritable import org.apache.hadoop.hbase.mapreduce.TableInputFormat import org.apache.hadoop.hbase.spark.HBaseContext import org.apache.hadoop.hbase.util.Bytes import org.apache.spark.rdd.RDD import org.apache.spark.sql.SparkSession import org.apache.hadoop.hbase.NamespaceDescriptor import org.apache.hadoop.hbase.TableName import org.apache.hadoop.hbase.client._ import org.apache.hadoop.hbase.filter._ import org.apache.hadoop.hbase.io.compress.Compression import org.apache.hadoop.hbase.util.Bytes /** * Created by lq on 2017/9/7. */ object spark2habse { } object Sparkonhbase { val spark=SparkSession.builder().appName("").master("").getOrCreate() val sc=spark.sparkContext val conf= HBaseConfiguration.create() val habsecontext=new HBaseContext(sc,conf) def scanHbaseTB(tableName:String)(implicit startKey:Option[String],endKey:Option[String]):RDD[(ImmutableBytesWritable,Result)]={ //如果有StartRowKey根据提供查询 startKey match { case Some(x)=>{ val scan=new Scan() scan.setStartRow(Bytes.toBytes(x)) scan.setStopRow(Bytes.toBytes(endKey.getOrElse(x))) val hbaeRDD=habsecontext.hbaseRDD(TableName.valueOf(tableName),scan) hbaeRDD } case None=>{ val scan=new Scan() val hbaeRDD=habsecontext.hbaseRDD(TableName.valueOf(tableName),scan) hbaeRDD } } def main(args: Array[String]): Unit = { //传统方式 conf.set(TableInputFormat.SCAN_ROW_START, "startrowkey") conf.set(TableInputFormat.SCAN_ROW_STOP, "stoprowkey") conf.set(TableInputFormat.INPUT_TABLE, "SparkHbase") val hBaseRDD = sc.newAPIHadoopRDD(conf, classOf[TableInputFormat], classOf[ImmutableBytesWritable], classOf[Result]) //利用HbaseContext进行操作 val SparkHbaseRDD=scanHbaseTB("SparkHbase") SparkHbaseRDD.foreach(x=>{ val rowKey=x._1.toString val rs=x._2 val cell=rs.getColumnLatestCell(Bytes.toBytes(""),Bytes.toBytes("")) println(s"the rowKey is $rowKey the values is $cell") }) } } }
<dependency>
<groupId>org.apache.hbase</groupId>
<artifactId>hbase-spark</artifactId>
<version>2.0.0-alpha2<
</dependency>
这个是spark2.0里面的,低版本的只有cdh的依赖.
学好计算机,走遍天下都不怕
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 10年+ .NET Coder 心语,封装的思维:从隐藏、稳定开始理解其本质意义
· .NET Core 中如何实现缓存的预热?
· 从 HTTP 原因短语缺失研究 HTTP/2 和 HTTP/3 的设计差异
· AI与.NET技术实操系列:向量存储与相似性搜索在 .NET 中的实现
· 基于Microsoft.Extensions.AI核心库实现RAG应用
· 10年+ .NET Coder 心语 ── 封装的思维:从隐藏、稳定开始理解其本质意义
· 地球OL攻略 —— 某应届生求职总结
· 提示词工程——AI应用必不可少的技术
· Open-Sora 2.0 重磅开源!
· 周边上新:园子的第一款马克杯温暖上架