HBase-简介-安装配置

1HBase简介

1.1 什么是HBase

  HBase的原型是GoogleBigTable论文,受到了该论文思想的启发,目前作为Hadoop的子项目来开发维护,

用于支持结构化的数据存储。

  官方网站:http://hbase.apache.org

  -- 2006Google发表BigTable白皮书

  -- 2006年开始开发HBase

  -- 2008年北京成功开奥运会,程序员默默地将HBase弄成了Hadoop的子项目

  -- 2010HBase成为Apache顶级项目

  -- 现在很多公司二次开发出了很多发行版本,你也开始使用了。

  HBase是一个高可靠性、高性能、面向列、可伸缩的分布式存储系统,利用HBASE技术可

在廉价PC Server上搭建起大规模结构化存储集群。

  HBase的目标是存储并处理大型的数据,更具体来说是仅需使用普通的硬件配置,就能够

处理由成千上万的行和列所组成的大型数据。

  HBaseGoogle Bigtable的开源实现,但是也有很多不同之处。比如:

Google Bigtable利用GFS作为其文件存储系统,HBase利用Hadoop HDFS作为其文件存储系统;

Google运行MAPREDUCE来处理Bigtable中的海量数据,HBase同样利用Hadoop MapReduce

来处理HBase中的海量数据;Google Bigtable利用Chubby作为协同服务,HBase利用Zookeeper作为对应。

1.2 HBase特点

1海量存储

  Hbase适合存储PB级别的海量数据,在PB级别的数据以及采用廉价PC存储的情况下,

能在几十到百毫秒内返回数据。这与Hbase的极易扩展性息息相关。正式因为Hbase良好的扩展性,

才为海量数据的存储提供了便利。

2列式存储

  这里的列式存储其实说的是列族存储,Hbase是根据列族来存储数据的。

列族下面可以有非常多的列,列族在创建表的时候就必须指定。

3极易扩展

  Hbase的扩展性主要体现在两个方面,一个是基于上层处理能力(RegionServer)的扩展,一个是基于存储的扩展(HDFS)。
通过横向添加RegionSever的机器,进行水平扩展,提升Hbase上层的处理能力,提升Hbsae服务更多Region的能力。

  备注:RegionServer的作用是管理region、承接业务的访问,这个后面会详细的介绍通过横向添加Datanode的机器,

进行存储层扩容,提升Hbase的数据存储能力和提升后端存储的读写能力。

4高并发

  由于目前大部分使用Hbase的架构,都是采用的廉价PC,因此单个IO的延迟其实并不小,

一般在几十到上百ms之间。这里说的高并发,主要是在并发的情况下,Hbase的单个IO延迟下降并不多。

能获得高并发、低延迟的服务。

5稀疏

  稀疏主要是针对Hbase列的灵活性,在列族中,你可以指定任意多的列,在列数据为空

的情况下,是不会占用存储空间的。

1.3 HBase架构

Hbase架构如图1所示:

 

                             1 HBase架构图

从图中可以看出Hbase是由ClientZookeeperMasterHRegionServerHDFS等几个组组成,

下面来介绍一下几个组的相关功能:

1Client

  Client包含了访问Hbase的接口,另外Client还维护了对应的cache来加速Hbase的访问,

比如cache.META.元数据的信息。

2Zookeeper

  HBase通过Zookeeper来做master的高可用、RegionServer的监控、

元数据的入口以及集群配置的维护等工作。具体工作如下:

  通过Zoopkeeper来保证集群中只有1master在运行,如果master异常,

会通过竞争机制产生新的master提供服务

  通过Zoopkeeper来监控RegionServer的状态,当RegionSevrer有异常的时候

通过回调的形式通知Master RegionServer上下线的信息

  通过Zoopkeeper存储元数据的统一入口地址

3Hmaster

master节点的主要职责如下:
RegionServer分配Region
维护整个集群的负载均衡
维护集群的元数据信息
发现失效的Region,并将失效的Region分配到正常的RegionServer
RegionSever失效的时候,协调对应Hlog的拆分

4HregionServer

HregionServer直接对接用户的读写请求,是真正的干活的节点。它的功能概括如下:
管理master为其分配的Region
处理来自客户端的读写请求
负责和底层HDFS的交互,存储数据到HDFS
负责Region变大以后的拆分
负责Storefile的合并工作

5HDFS

HDFSHbase提供最终的底层数据存储服务,同时为HBase提供高可用(Hlog存储在HDFS)的支持,具体功能概括如下:
提供元数据和表数据的底层分布式存储服务
数据多副本,保证的高可靠和高可用性

1.3 HBase中的角色

1.3.1 HMaster

功能

1.监控RegionServer

2.处理RegionServer故障转移

3.处理元数据的变更

4.处理region的分配或转移

5.在空闲时间进行数据的负载均衡

6.通过Zookeeper发布自己的位置给客户端

1.3.2 RegionServer

功能

1.负责存储HBase的实际数据

2.处理分配给它的Region

3.刷新缓存到HDFS

4.维护Hlog

5.执行压缩

6.负责处理Region分片

1.2.3 其他组件

1.Write-Ahead logs

HBase的修改记录,当对HBase读写数据的时候,数据不是直接写进磁盘,它会在内存中保留一段时间(时间以及数据量阈值可以设定)。但把数据保存在内存中可能有更高的概率引起数据丢失,为了解决这个问题,数据会先写在一个叫做Write-Ahead logfile的文件中,然后再写入内存中。所以在系统出现故障的时候,数据可以通过这个日志文件重建。

2.Region

Hbase表的分片,HBase表会根据RowKey值被切分成不同的region存储在RegionServer中,在一个RegionServer中可以有多个不同的region

3.Store

HFile存储在Store中,一个Store对应HBase表中的一个列族。

4.MemStore

顾名思义,就是内存存储,位于内存中,用来保存当前的数据操作,所以当数据保存在WAL中之后,RegsionServer会在内存中存储键值对。

5.HFile

这是在磁盘上保存原始数据的实际的物理文件,是实际的存储文件。StoreFile是以Hfile的形式存储在HDFS的。

 

 

2HBase安装

 

2.1 Zookeeper正常部署

 

首先保证Zookeeper集群的正常部署,并启动之:

 

[lxl@hadoop102 zookeeper-3.4.10]$ bin/zkServer.sh start
[lxl@hadoop103 zookeeper-3.4.10]$ bin/zkServer.sh start
[lxl@hadoop104 zookeeper-3.4.10]$ bin/zkServer.sh start

 

 

2.2 Hadoop正常部署

 

Hadoop集群的正常部署并启动:

 

[lxl@hadoop102 hadoop-2.7.2]$ sbin/start-dfs.sh
[lxl@hadoop103 hadoop-2.7.2]$ sbin/start-yarn.sh

 

 

2.3 HBase的解压

 

解压HBase到指定目录:

 

[lxl@hadoop102 software]$ tar -zxvf hbase-1.3.1-bin.tar.gz -C /opt/module

 

 

2.4 HBase的配置文件

 

修改HBase对应的配置文件。

 

1hbase-env.sh修改内容:

 

export JAVA_HOME=/opt/module/jdk1.8.0_144
export HBASE_MANAGES_ZK=false

 

 

2hbase-site.xml修改内容:

 

<configuration>

<property>     

<name>hbase.rootdir</name>     

<value>hdfs://hadoop102:9000/hbase</value>  

</property>

 

<property>  

<name>hbase.cluster.distributed</name>

<value>true</value>

</property>

 

   <!-- 0.98后的新变动,之前版本没有.port,默认端口为60000 -->

<property>

<name>hbase.master.port</name>

<value>16000</value>

</property>

 

<property>  

<name>hbase.zookeeper.quorum</name>

     <value>hadoop102:2181,hadoop103:2181,hadoop104:2181</value>

</property>

 

<property>  

<name>hbase.zookeeper.property.dataDir</name>

     <value>/opt/module/zookeeper-3.4.10/zkData</value>

</property>

</configuration>

 

3regionservers

 

hadoop102

hadoop103

hadoop104

 

4)软连接hadoop配置文件到hbase

 

[lxl@hadoop102 module]$ ln -s /opt/module/hadoop-2.7.2/etc/hadoop/core-site.xml /opt/module/hbase/conf/core-site.xml

 

[lxl@hadoop102 module]$ ln -s /opt/module/hadoop-2.7.2/etc/hadoop/hdfs-site.xml /opt/module/hbase/conf/hdfs-site.xml

 

 

2.5 HBase远程发送到其他集群

 

[lxl@hadoop102 module]$ xsync hbase/ 

 

 

2.6 HBase服务的启动

 

1.启动方式1

 

[lxl@hadoop102 hbase]$ bin/hbase-daemon.sh start master
[lxl@hadoop102 hbase]$ bin/hbase-daemon.sh start regionserver

 

 

提示:如果集群之间的节点时间不同步,会导致regionserver无法启动,抛出ClockOutOfSyncException异常。

 

修复提示:

 

a、同步时间服务

 

请参看帮助文档:《尚硅谷大数据技术之Hadoop入门》

 

b、属性:hbase.master.maxclockskew设置更大的值

 

<property>

        <name>hbase.master.maxclockskew</name>

        <value>180000</value>

        <description>Time difference of regionserver from master</description>

 </property>

 

2.启动方式2

 

[lxl@hadoop102 hbase]$ bin/start-hbase.sh

 

 

对应的停止服务:

 

[lxl@hadoop102 hbase]$ bin/stop-hbase.sh

 

 

2.7 查看HBase页面

 

启动成功后,可以通过host:port”的方式来访问HBase管理页面,例如:

 

http://hadoop102:16010 

 

posted @ 2019-06-11 20:38  LXL_1  阅读(216)  评论(0编辑  收藏  举报