大数据环境完全分布式搭建hbase-0.96.2-hadoop2
1.上传hbase安装包
2.解压
3.配置hbase集群,要修改3个文件
(首先zookeeper集群已经安装好了 并且启动 hadoop启动)
注意:要把hadoop的hdfs-site.xml和core-site.xml 放到hbase/conf下(使几台机器的联系起来 像hadoop一样 当在itcast01启动hbase时 其他的机器也跟着启动)
3.1修改hbase-env.sh
export JAVA_HOME=/usr/java/jdk1.7.0_55
//告诉hbase使用外部的zk(默认有#号 只启动本机的)
export HBASE_MANAGES_ZK=false
vi hbase-site.xml
<configuration>
<!-- 指定hbase在HDFS上存储的路径 -->
<property>
<name>hbase.rootdir</name>
<value>hdfs://ns1/hbase</value>
</property>
<!-- 指定hbase是分布式的 -->
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<!-- 指定zk的地址,多个用“,”分割 -->
<property>
<name>hbase.zookeeper.quorum</name>
<value>itcast04:2181,itcast05:2181,itcast06:2181</value>
</property>
</configuration>
vim regionservers(此处表示同时开启4台机器)
itcast03
itcast04
itcast05
itcast06
3.2拷贝hbase到其他节点
scp -r /itcast/hbase-0.96.2-hadoop2/ itcast02:/itcast/
scp -r /itcast/hbase-0.96.2-hadoop2/ itcast03:/itcast/
scp -r /itcast/hbase-0.96.2-hadoop2/ itcast04:/itcast/
scp -r /itcast/hbase-0.96.2-hadoop2/ itcast05:/itcast/
scp -r /itcast/hbase-0.96.2-hadoop2/ itcast06:/itcast/
4.将配置好的HBase拷贝到每一个节点并同步时间。
5.启动所有的hbase
分别启动zk:
./zkServer.sh start
启动hadoop集群:
start-dfs.sh
启动hbase集群,在主节点上运行:
start-hbase.sh
6.通过浏览器访问hbase管理页面
192.168.1.201:60010
7.为保证集群的可靠性,要启动多个HMaster
hbase-daemon.sh start master(单个启动hbase的命令)
8.在bin目录下进入shell进行数据库操作 ./hbase shell
9.hbase简介(很好的梳理资料)http://jiajun.iteye.com/blog/899632/