hbase 学习笔记

 

 

 

  1. HBase简介

 

HBase – Hadoop Database,是一个高可靠性、高性能、面向列、可伸缩的分布式存储系统,利用HBase技术可在廉价PC Server上搭建起大规模结构化存储集群。HBase利用Hadoop HDFS作为其文件存储系统,利用Hadoop MapReduce来处理HBase中的海量数据,利用Zookeeper作为协调工具

 

 

 

  1. 主键:Row Key

 

主键是用来检索记录的主键,访问hbase table中的行,只有三种方式

 

通过单个row key访问

 

通过row key的range

 

全表扫描

 

 

 

  1. 列族:Column Family

 

列族在创建表的时候声明,一个列族可以包含多个列,列中的数据都是以二进制形式存在,没有数据类型

 

 

 

  1. 时间戳:timestamp

 

HBase中通过row和columns确定的为一个存贮单元称为cell。每个 cell都保存着同一份数据的多个版本。版本通过时间戳来索引

 

 

 

  1. HBASE基础知识

 

物理存储

 

          Table 在行的方向上分割为多个HRegion,一个region由[startkey,endkey)表示,每个HRegion分散在不同的RegionServer中

 

 

 

 

 

 

 

 

 

架构体系

 

  1.                          i.              Client  包含访问hbase 的接口,client 维护着一些cache 来加快对hbase 的访问,比如regione 的位置信息
  2.                        ii.              Zookeeper
    1.  保证任何时候,集群中只有一个running master
    2.  存贮所有Region 的寻址入口
    3.  实时监控Region Server 的状态,将Region server 的上线和下线信息,实时通知给Master
    4.  存储Hbase 的schema,包括有哪些table,每个table 有哪些column family
    5.                       iii.              Master 可以启动多个HMaster,通过Zookeeper的Master Election机制保证总有一个Master运行
      1. 为Region server 分配region
      2. 负责region server 的负载均衡
      3. 发现失效的region server 并重新分配其上的region

 

 

 

HBase中有两张特殊的Table,-ROOT-和.META.

 

-ROOT- :记录了.META.表的Region信息,-ROOT-只有一个region

 

.META. :记录了用户创建的表的Region信息,.META.可以有多个regoin

 

 Zookeeper中记录了-ROOT-表的location

 

Client访问用户数据之前需要首先访问zookeeper,然后访问-ROOT-表,接着访问.META.表,最后才能找到用户数据的位置去访问

 

 

 

 

 

 

 

  1. Region Server

 

1、维护Master 分配给它的region,处理对这些region 的IO 请求

 

2、负责切分在运行过程中变得过大的region

 

可以看出,client 访问hbase 上数据的过程并不需要master 参与,寻址访问先zookeeper再regionserver,数据读写访问regioneserver。HRegionServer主要负责响应用户I/O请求,向HDFS文件系统中读写数据,是HBase中最核心的模块。   

 

 

 

 

 

 

 

  1. Hbase表存储结构:

 

 

 

  1. HBASE Shell的DDL操作

 

 

 

名称

命令表达式

创建表

create '表名称', '列族名称1','列族名称2','列族名称N'

添加记录     

put '表名称', '行名称', '列名称:', '值'

查看记录

get '表名称', '行名称'

查看表中的记录总数

count  '表名称'

删除记录

delete  '表名' ,'行名称' , '列名称'

删除一张表

先要屏蔽该表,才能对该表进行删除,第一步 disable '表名称' 第二步  drop '表名称'

查看所有记录

scan "表名称" 

查看某个表某个列中所有数据

scan "表名称" , {COLUMNS=>'列族名称:列名称'}

更新记录

就是重写一遍进行覆盖

 

 

 

 

 

1、  创建表

 

>create 'users','user_id','address','info'

 

表users,有三个列族user_id,address,info

 

2、  列出全部表

 

>list

 

3、  得到表的描述

 

>describe 'users'

 

4、  创建表

 

>create 'users_tmp','user_id','address','info'

 

5、  删除表

 

>disable 'users_tmp'

 

>drop 'users_tmp'

 

 

 

 

 

  1. HBASE Shell的DML操作

 

1、  添加记录

 

put 'users','xiaoming','info:age','24';

 

put 'users','xiaoming','info:birthday','1987-06-17';

 

put 'users','xiaoming','info:company','alibaba';

 

 

 

2、  获取一条记录

 

1.取得一个id的所有数据

 

>get 'users','xiaoming'

 

2.获取一个id,一个列族的所有数据

 

>get 'users','xiaoming','info'

 

3.获取一个id,一个列族中一个列的

 

所有数据

 

get 'users','xiaoming','info:age'

 

 

 

3、  更新记录

 

>put 'users','xiaoming','info:age' ,'29'

 

>get 'users','xiaoming','info:age'

 

>put 'users','xiaoming','info:age' ,'30'

 

>get 'users','xiaoming','info:age'

 

4、  获取单元格数据的版本数据

 

>get 'users','xiaoming',{COLUMN=>'info:age',VERSIONS=>1}

 

>get 'users','xiaoming',{COLUMN=>'info:age',VERSIONS=>2}

 

>get 'users','xiaoming',{COLUMN=>'info:age',VERSIONS=>3}

 

5、  获取单元格数据的某个版本数据

 

〉get 'users','xiaoming',{COLUMN=>'info:age',TIMESTAMP=>1364874937056}

 

6、  全表扫描

 

>scan 'users'

 

 

 

  1. HBASE的Java_API(一)

 

11.  import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.hbase.*;
import org.apache.hadoop.hbase.client.*;
import org.apache.hadoop.hbase.util.Bytes;
import org.jruby.RubyProcess;
import org.junit.Before;
import org.junit.Test;

import java.io.IOException;

/**
 * Created by Administrator on 2017/3/13.
 */
public class Application {

    private Configuration conf = null;

    @Before
    public void init(){
        conf = HBaseConfiguration.create();
        conf.set("hbase.zookeeper.quorum", "hadoop4:2181,hadoop5:2181,hadoop6:2181");

    }

    @Test
    public void testDrop() throws IOException {
        HBaseAdmin admin=new HBaseAdmin(conf);
        admin.disableTable("account");
        admin.deleteTable("account");
        admin.close();
    }

    @Test
    public void testPut() throws IOException {
        HTable table=new HTable(conf,"book");
        Put put =new Put(Bytes.toBytes("book0005"));
        put.add(Bytes.toBytes("dock1"),Bytes.toBytes("info"),Bytes.toBytes("liuyan"));
        table.put(put);
        table.close();
    }

    @Test
    public void testGet() throws IOException {
        HTable table =new HTable(conf,"book");
        Get get=new Get(Bytes.toBytes("book0001"));
        get.addColumn(Bytes.toBytes("dock1"),Bytes.toBytes("info"));
        get.addColumn(Bytes.toBytes("dock1"),Bytes.toBytes("isbn"));
        Result result=table.get(get);
        for (KeyValue kv: result.list()) {
            String family =new String( kv.getFamily());
            System.out.print(family);
            String clum=new String(kv.getQualifier());
            System.out.print(clum);
            System.out.print(new String(kv.getValue()));
        }
    }

    @Test
    public void testDel() throws IOException {
        HTable table=new HTable(conf,"book");
        Delete delete=new Delete(Bytes.toBytes("book0001"));
        delete.deleteColumn(Bytes.toBytes("dock1"),Bytes.toBytes("info"));
        table.delete(delete);
        table.close();
    }

    @Test
    public void testScan() throws IOException {
        HTablePool pool=new HTablePool(conf,10);
        HTableInterface hTableInterface=pool.getTable("book");
        Scan scan=new Scan(Bytes.toBytes("book0001"),Bytes.toBytes("book0005"));
        scan.addFamily(Bytes.toBytes("dock1"));
        ResultScanner results= hTableInterface.getScanner(scan);
        for (Result t : results){
            byte[]value=t.getValue(Bytes.toBytes("dock1"),Bytes.toBytes("isbn"));
            System.out.print(new String(value));
        }

    }

    public static void main(String[] args) throws IOException {
        Configuration conf = HBaseConfiguration.create();
        conf.set("hbase.zookeeper.quorum", "hadoop4:2181,hadoop5:2181,hadoop6:2181");
        HBaseAdmin admin = null;
        try {
            admin = new HBaseAdmin(conf);
        } catch (IOException e) {
            e.printStackTrace();
        }
        HTableDescriptor td = new HTableDescriptor(TableName.valueOf("htable"));
        HColumnDescriptor cd = new HColumnDescriptor("info");
        cd.setMaxVersions(10);
        td.addFamily(cd);

        admin.createTable(td);

        admin.close();

        // System.out.print("11111111111");
    }

}

 

 

 

posted on 2017-03-14 22:14  lvlv岁月流逝  阅读(342)  评论(0编辑  收藏  举报

导航