Hadoop 配置hbase

首先要启动hadoop 

start-dfs.sh

 

start-yarn.sh

查看一下自己的hadoop版本,确保自己下载的hbase与自己的hadoop版本匹配 

 

hadoop version

Index of /apache/hbase (tsinghua.edu.cn) 下载hbase

 选择倒数第三个下载

下载完成后  进入 /export/server/  上传压缩包后 完成解压 重命名操作 

tar -xzf hbase-2.4.18-bin.tar.gz 

mv hbase-2.4.18 hbase

  

接下来配置系统变量 将hbase下的bin目录添加到path中

 

vi /etc/profile
添加
export PATH=$PATH:/export/server/hbase/bin
保存配置
source /etc/profile
检查hbase是否安装成功 成功后会显示版本号
/export/server/hbase/bin/hbase version 

  

 配置hbase-env.sh

vi /export/server/hbase/connf/hbase-env.sh

添加 
export JAVA_HOME=/export/server/JDK
export HBASE_CLASSPATH=/export/server/hbase/conf

export HBASE_MANAGES_ZK=true

  

 

配置hbase-site.xml

vi /export/server/hbase/conf/hbase-site.xml

 

添加下面代码

<property> <name>hbase.rootdir</name> <value>hdfs://localhost:9000/hbase</value> </property><property> <name>hbase.cluster.distributed</name> <value>true</value> </property>

 

这个hdfs://localhost:9000/hbase  每个人和每个人不一样 需要自己找
查看 core-site.xml: 这个文件通常位于 $HADOOP_HOME/etc/hadoop/ 目录下。打开这个文件并查找 fs.defaultFS 属性
找到这个地址

启动hbase
bin/start-hbase.sh
输入jps 查看进程
如果显示有三个H开头的进程 表示启动成功了
接下来进入 shell 
hbase shell

SLF4J: Found binding in [jar:file:/usr/local/hadoop/share/hadoop/common/lib/slf4j-reload4j-1.7.35.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: Found binding in [jar:file:/usr/local/hbase/lib/client-facing-thirdparty/slf4j-reload4j-1.7.33.jar!/org/slf4j/impl/StaticLoggerBinder.class]
如果出现这个错误
需要将这个jar包 删除一个

后面就可以使用命令了
在我看的教程中,还会出现几个错误,但是我没有遇到,所有就不说明了,后面有我看的教程链接。

我遇到了一个教程中没有的错误。启动成功后,还是报错,显示没有启动成功
需要在 hbase/conf/hbase-env.sh中添加
export HBASE_DISABLE_HADOOP_CLASSPATH_LOOKUP=true

重新启动hdfs、hbase,问题解决

如果启动失败 可能是hadoop处于安全模式


输入
hdfs dfsadmin -safemode forceExit
退出安全模式

重新启动 hadoop hbase 进入shell 可以实现建表语句

 

 

教程链接Hadoop之Hbase安装和配置_hadoop之hbase的安装与配置-CSDN博客

bug 链接【Bug解决】Hbase 进入shell输入命令list报错:Server is not running yet-CSDN博客

希望大家都可以配置好hbase

 

 

 

 

posted @ 2024-09-30 21:34  财神给你送元宝  阅读(16)  评论(0编辑  收藏  举报