HBASE

列式存储,设计思想参考BigTable

文档:http://hbase.apache.org/book.html

  • hive适合数据分析,离线任务
  • hbase大数据实时查询
  • 避免显式锁,提供行原子性操作
  • 每行数据只有一台服务器服务,因此有强一致性

存储层使用HDFS

  • 按照CF存储,按照Row-key进行关联

Master\Region Server

高可用 容灾

  • Master协调Region Server,负载均衡,分配Region给Region Server
  • Region Server包括多个Region。Client直接连接Region Server
  • Zookeeper 高可用,负责Region和Region Server注册(依赖列表特性)

    客户端有上亿条数据时使用
    - rowKey设计很重要,选一个rowKey,使你的数据均匀的分布在集群中 
    - 客户端频繁写一张表时,随机RowKey性能更好
    - 客户端需要频繁读一张表时,有序RowKey性能更好
    - 时间连续的数据,有序RowKey更好
    - Column Family一般不会超过2-3个CF,一般一个就够了
      ,它聚合同一特性的数据

安装

windows环境需要cgyWin,太麻烦了,cgywin挺大的,下载老慢。

  • download stabe hbase version

  • 修改conf/hbase-env.cmd/sh的JAVA_HOME配置

  • 编辑conf/hbase-site.xml配置(本机文件系统,非hdfs系统)

    hbase.rootdir file:///home/testuser/hbase hbase.zookeeper.property.dataDir /home/testuser/zookeeper
  • 启动bin/start-hbase.cmd/sh

    create a table:
      create 'test','cf'
    list information:
      list 'test'
    put data:
      put 'test','row1','cf:a','value1'  
    scan table
      scan 'test' 
    get a row:
      get 'test','row1'

版本相关

Hbase 2.0仅支持JDK 8, Hbase 1.x不再支持jAVA 6

Habase可能会同一时刻打开大量文件,ulimit -n 检查值,使用ulimit -u 确保系统至少配置为10,240

通过预写日志WAL文件来恢复未flush到磁盘的数据,建议配置足够的WAL文件数,使足够多的数据可以被存储

自动切分HRegion

Namespace

Namespace可以用来管理一组table,功能上类似于RDBS的数据库

Column Family

有相同前缀的列,用冒号分隔,如course:history\course:math都是course列族的

Data Model Operations

Get


		public static final byte[] CF = "cf".getBytes();
		public static final byte[] ATTR = "attr".getBytes();
		...
		Get get = new Get(Bytes.toBytes("row1"));
		Result r = table.get(get);
		byte[] b = r.getValue(CF, ATTR); 

查询带Version的GET


	public static final byte[] CF = "cf".getBytes();
	public static final byte[] ATTR = "attr".getBytes();
	...
	Get get = new Get(Bytes.toBytes("row1"));
	get.setMaxVersions(3);  // will return last 3 versions of row
	Result r = table.get(get);
	byte[] b = r.getValue(CF, ATTR);  // returns current version of value
	List<KeyValue> kv = r.getColumn(CF, ATTR);  // returns all versions of this column


获取某一行Row

Put

add new rows或者更新已存在的row,有点像upsert


 	隐式version
	public static final byte[] CF = "cf".getBytes();
	public static final byte[] ATTR = "attr".getBytes();
	...
	Put put = new Put(Bytes.toBytes(row));
	put.add(CF, ATTR, Bytes.toBytes( data));
	table.put(put);	


	显式version
	public static final byte[] CF = "cf".getBytes();
	public static final byte[] ATTR = "attr".getBytes();
	...
	Put put = new Put( Bytes.toBytes(row));
	long explicitTimeInMs = 555;  // just an example
	put.add(CF, ATTR, explicitTimeInMs, Bytes.toBytes(data));
	table.put(put);


Scans

查询多行row


		//rowKey的规则可以是复合的,相对于rdbms,可以是几个字段合在一起
		byte[] startRow = Bytes.add(规则1.getBytes(), 规则2.getBytes(), Bytes.toBytes(startTime.getTime()));
 		Scan scan = new Scan();
		scan.setStartRow(startRow);
		scan.setStopRow(endRow);
		scan.addFamily(family);
		ResultScanner rs = table.getScanner(scan);

Delete

删除行,并不立即删除数据,而是记标记,等Master来整理时被处理
http://hadoop-hbase.blogspot.hk/2012/01/scanning-in-hbase.html

Versions

A {row, column, version} tuple exactly specifies a cell in HBase
row和column相同的数据可能有很多,但是他们的version一定不同
version维度的数据是逆序存储的,所以能更快的找到最新的一条数据

  • Hbase允许多次写操作的对象为同一version,只有最后的那次写可以被获取
  • 写数据时可以不按version的顺序进行写
  • api可以操作获取的versions个数,如Get.setMaxVersions()

Hbase number of column families

目前并不能很好的处理列族为2或3的情况,因此尽量保持只有1个列族,除非数据操作总是针对列的,也就是说查询一个列族或另一个列族,但不同时查询两个列族
原因:

  • 刷新、整理是在一个Region上的,一个列族在刷新时,相邻的列族也会被刷新,即使它们的数据量很少,所以多个列族会存在着很多无效I/O的问题
  • 当CFa有1百万条数据,CFb有10亿条数据时,CFa的数据会被分布在很多,很多的Region上,会导致CFa的查询非常低效

RowKey设计

  • 在Hbase中,rows是按字典顺序排序的,这样可以优化查询效率,因为相关的rows是挨着的。
  • 拙劣的设计会使Hbase读写存在热点问题,即绝大多数请求指向同一个node或少量的nodes,甚至导致这台region server上的其他region的操作受影响,因为服务器可能过载了(解决办法和ConcurrentHashMap的设计理念相似,分而治之,类似hashcode再rehash)

解决热点问题

  • salting 通过一定规则产生随机前缀,达到数据更易均匀分布
  • hashing
  • 逆序
  • 综合多个属性
posted on 2017-12-29 09:48  j.liu&nbsp;windliu  阅读(464)  评论(0编辑  收藏  举报