Hadoop第12周练习—HBase安装部署

1 运行环境说明... 3

1.1 硬软件环境... 3

1.2 机器网络环境... 3

2  书面作业1:安装HBase. 3

2.1 书面作业1内容... 3

2.2  安装过程... 4

2.2.1   下载HBase安装包... 4

2.2.2   上传HBase. 4

2.2.3   解压并移动目录... 5

2.2.4   设置环境变量... 5

2.2.5   编辑hbase-env.sh. 6

2.2.6   编辑hbase-site.xml6

2.2.7   编辑regionservers文件... 7

2.2.8   分发程序文件... 8

2.2.9   设置分发节点设置环境变量... 9

2.2.10启动HBase. 9

2.2.11验证启动... 9

 

1 运行环境说明

1.1 硬软件环境

l  主机操作系统:Windows 64 bit,双核4线程,主频2.2G6G内存

l  虚拟软件:VMware® Workstation 9.0.0 build-812388

l  虚拟机操作系统:CentOS 64位,单核,1G内存

l  JDK1.7.0_55 64 bit

l  Hadoop1.1.2

1.2 机器网络环境

集群包含三个节点:1namenode2datanode,其中节点之间可以相互ping通。节点IP地址和主机名分布如下:

序号

IP地址

机器名

类型

用户名

运行进程

1

10.88.147.221

hadoop1

名称节点

hadoop

NNSNNJobTracer

2

10.88.147.222

hadoop2

数据节点

hadoop

DNTaskTracer

3

10.88.147.223

hadoop3

数据节点

hadoop

DNTaskTracer

所有节点均是CentOS6.5 64bit系统,防火墙均禁用,所有节点上均创建了一个hadoop用户,用户主目录是/usr/hadoop。所有节点上均创建了一个目录/usr/local/hadoop,并且拥有者是hadoop用户。

2 书面作业1安装HBase

2.1 书面作业1内容

安装HBase,有条件的同学都按完全分布式安装,将安装过程和最后测试成功的界面抓图提交。

 

2.2 安装过程

2.2.1下载HBase安装包

Apache网站上(hbase.apache.org)下载HBase稳定发布包:

http://mirrors.cnnic.cn/apache/hbase/hbase-0.96.2/

clip_image002

2.2.2上传HBase

把下载的hbase-0.96.2-hadoop1-bin.tar.gz安装包,使用SSH Secure File Transfer工具(第12周作业2.1.3.1介绍)上传到/home/hadoop/Downloads 目录下

clip_image004

2.2.3解压并移动目录

1.     使用如下命令解压,解压后出现hbase-0.96.2-hadoop1文件夹:

cd /home/hadoop/Downloads

tar -zxf hbase-0.96.2-hadoop1-bin.tar.gz

clip_image006

2.     使用如下命令把解压目录迁移到/usr/local下:

sudo mv hbase-0.96.2-hadoop1 /usr/local/hbase-0.96.2

clip_image008

2.2.4设置环境变量

1.     使用sudo vi /etc/profile命令修改系统环境变量

export HBASE_HOME=/usr/local/hbase-0.96.2

export PATH=$PATH:$HBASE_HOME/bin

clip_image010

2.     使环境变量生效

source /etc/profile

clip_image012

3.     验证环境变量生效

hbase version

clip_image014

2.2.5编辑hbase-env.sh

1.     打开hbase-env.sh文件

cd /usr/local/hbase-0.96.2/conf

sudo vi hbase-env.sh

clip_image016

2.     修改该文件配置

#Java环境

export JAVA_HOME=/usr/lib/java/jdk1.7.0_55

#通过hadoop的配置文件找到hadoop集群

export HBASE_CLASSPATH=/usr/local/hadoop-1.1.2/conf

#使用HBASE自带的zookeeper管理集群

export HBASE_MANAGES_ZK=true

clip_image018

clip_image020

2.2.6编辑hbase-site.xml

1.     打开hbase-site.xml配置文件

cd /usr/local/hbase-0.96.2/conf

sudo vi hbase-site.xml

clip_image022

2.     配置hbase-site.xml文件

<configuration>

  <property>

     <name>hbase.rootdir</name>

     <value>hdfs://hadoop1:9000/hbase</value>// Hbase该项并不识别机器IP,只能使用机器hostname

  </property>

  <property>

     <name>hbase.cluster.distributed</name>

     <value>true</value>

  </property>

  <property>

    <name>hbase.zookeeper.quorum</name>

    <value>hadoop1,hadoop2,hadoop3</value>

  </property>

</configuration>

clip_image024

2.2.7编辑regionservers文件

使用如下命令打开regionservers配置文件:

sudo vi regionservers

clip_image026

加入如下内容:

hadoop2

hadoop3

clip_image028

2.2.8分发程序文件

1.     在其他两个节点hadoop2hadoop3创建HBase存放目录并赋予权限

sudo mkdir /usr/local/hbase-0.96.2

sudo chown R hadoop /usr/local/hbase-0.96.2

clip_image030

2.     hadoop1节点把HBase分发到hadoop2hadoop3

cd /usr/local

scp -r hbase-0.96.2/* hadoop@hadoop2:/usr/local/hbase-0.96.2/

scp -r hbase-0.96.2/* hadoop@hadoop3:/usr/local/hbase-0.96.2/

clip_image032

clip_image034

2.2.9设置分发节点设置环境变量

按照hadoop1节点环境修改hadoop2hadoop3系统环境变量,使用 sudo vi /etc/profile 打开配置文件:

export HBASE_HOME=/usr/local/hbase-0.96.2

export PATH=$PATH:$HBASE_HOME/bin

clip_image036

设置后使用 source /etc/profile 生效设置环境变量

2.2.10   启动HBase

通过如下命令启动Hbase

cd /usr/local/hbase-0.96.2/bin

./start-hbase.sh

clip_image038

2.2.11   验证启动

1.     查看各节点状态

hadoop1

clip_image040

hadoop2hadoop3

clip_image042

2.     进入hbaseshell命令行,创建表member并进行查看

clip_image044

posted @ 2015-01-26 11:23  shishanyuan  阅读(5439)  评论(0编辑  收藏  举报