伪分布式hbase从0.94.11版本升级stable的1.4.9版本

 

 

Hbase从0.94.11升级到stable的1.4.9版本:

 升级思路:

hadoop1.1.2    hbase 0.94.11

                           

hadoop1.1.2    hbase 0.96.0-hadoop1

                           

hadoop1.1.2    hbase 0.98.0-hadoop1

                           

Hadoop2.2.0    hbase 0.98.0-hadoop1

                           

hadoop2.5.0    hbase 0.98.0-hadoop1

                           

hadoop2.5.0    hbase 0.98.0-hadoop2

                           

hadoop2.5.0    hbase 1.0.1.1

                           

hadoop2.5.0    hbase 1.3.0

                           

hadoop2.5.0    hbass 1.4.9

 

 

0.94.11 hadoop1.1.2=> hbase 0.96.0-hadoop1hadoop1.1.2

         先安装配置好habse0.96.0后,直接运行habse96版本,hmaster没有启动。

         打开master日志,HBase file layout needs to be upgraded.  You have version 7 and I want version 8.  Is your hbase.rootdir valid?  If so, you may need to run 'hbase hbck -fixVersionFile'.

         因此必须在96版本下进行update.

 

   步骤:

            先将hbase0.94.11关闭,下载hbase0.96.0。解压配置(此步骤和配置0.94.11相同)。

             然后在habse0.96.0上运行./bin/hbase upgrade -check来检查hfilev1是否已经完全重写(bin/hbase upgrade -check -dir /myHBase/testable 来检查特定的表。)

             确认无误后,只启动hbase0.96.0的zookeeper。

      ./hbase/bin/hbase-daemon.sh start zookeeper

             最后,执行bin/hbase upgrade –execute . 完成最后的升级操作。

             然后再关闭hbase0.96.0的zookeeper

                    ./hbase/bin/hbase-daemon.sh stop zookeeper

             最后,启动hbase0.96.0,进入shell后,查看文件的完整性。

 

 

hbase 0.96.0-hadoop1hadoop1.1.2 => hbase 0.98.0-hadoop1hadoop1.1.2

         \hbase0.96必须关闭。

   安装配置好hbase0.98.0-hadoop1,配置(步骤和0.94.11相同)

         开启hbase0.98,实现无缝对接。

        

  此处注意:,HBase 0.98版本保持与0.96版本的兼容,两个版本的客户端和服务器端之间可以无缝互操作。但是0.98版本并没有计划与0.96以及早期版本的Java API保持二进制兼容,因此可能需要重新编译应用程序

 

hbase 0.98.0-hadoop1hadoop1.1.2 => hbase 0.98.0-hadoop1hadoop2.2.0

         步骤:

    1.关闭habase

               2.在hadoop1.1.2上先看一下数据,确保数据存在

              3.关掉所有hadoop1.1.2的进程,并将关于Hadoop1.1.2所有的相关的环境变量(HADOOP_HOME、PATH等相关环境变量配置)删掉(如果有),以防对Hadoop2.2.0升级的影响。

    4.安装配置hadoop2-2.0, 将Hadoop2的${HADOOP_HOMOE}/etc/hadoop/hdfs-site.xml中dfs.namenode.name.dir和dfs.datanode.data.di属性的值分别指向Hadoop1的${HADOOP_HOME}/conf/hdfs-site.xml中                     dfs.name.dir和dfs.data.dir的值。

    5.启动hadoop2.2.0.

                     ./sbin/start-dfs.sh

    6.会发现错误,去logs/hadoop-aa-namenode-master.log,会看到:

      FATAL org.apache.hadoop.hdfs.server.namenode.NameNode: Exception in namenode join

      java.io.IOException:

      File system image contains an old layout version -32.

      An upgrade to version -47 is required.

      Please restart NameNode with -upgrade option.

 

    于是,执行./sbin/hadoop-daemon.sh start namenode –upgrade

    最后在jps一下,可以看到都正常启动了。

                  

     7.最后查看数据,同时登陆web管理界面。

               8. 升级完成后,会在namenode的dfs.namenode.name.dir目录和dfs.datanode.data.dir目录下多出一个previous/ 目录。如果确认升级成功后,可以根据实际情况决定是否需要删掉这个目录,运行以下命令把以           前的版本删掉:

bin/hdfs dfsadmin –finalizeUpgrade

    (-finalizeUpgrade 不是升级必须的,所以根据实际情况去执行。一旦执行该命令,会删掉旧版本数据,以后就不能回滚了。)

                  如果失败,数据回滚:

      如果升级失败,可以随时回滚,回滚,数据会回滚到升级前那一刻的数据,升级后的数据修改,全部失效,回滚启动步骤如下:

       1. 启动namenode: /usr/local/hadoop1.0.2/bin/hadoop-daemon.sh start namenode –rollback

       2.  启动datanode: /usr/local/hadoop1.0.2/bin/hadoop-daemon.sh start datanode –rollback

 

hbase 0.98.0-hadoop1hadoop2.2.0 => hbase 0.98.0-hadoop1hadoop2.5.0

                   步骤基本和上部基本一致,master日志错误:

      java.io.IOException:

      File system image contains an old layout version -47.

      An upgrade to version -57 is required.

      Please restart NameNode with the "-rollingUpgrade started" option if a rolling upgrade is already started; or restart NameNode with the "-upgrade" option to start a new upgrade.

 

hbase 0.98.0-hadoop1hadoop2.5.0 => hbase 0.98.0-hadoop2hadoop2.5.0

    安装好hbase0.98-hadoop2.

    配置好,其中rootdir必须指向hadoop2.5.0的数据目录。(如果hadoop2.5从其他版本升级过来,也就是hadoop2.5.0的数据路径指向原来hadoop的数据路径,那么hbase的就指向原来hadoop的数据路径)

 

hadoop2.5.0    hbase 0.98.0-hadoop2 => hadoop2.5.0    hbase 1.0.1.1

    \hbase0.98-hadoop2必须关闭。

    安装配置好hbase1.0.11,配置(步骤和0.94.11相同)

             开启hbase1.0.11,实现无缝对接。

        

    此处注意:,HBase 0.98版本保持与1.0.11版本的兼容,两个版本的客户端和服务器端之间可以无缝互操作。但是0.98版本并没有计划与1.0.11以及早期版本的Java API保持二进制兼容,因此可能需要重新编译        应用程序,来获得1.x版本的新特性。

hadoop2.5.0    hbase 1.0.1.1 => hadoop2.5.0    hbase 1.3.0

  \hbase1.0.1.1必须关闭。

  安装配置好hbase1.3.0,配置(步骤和0.94.11相同)

         开启hbase1.3.0,实现无缝对接。

 

hadoop2.5.0    hbase 1.3.0=> hadoop2.5.0    hbase 1.4.9

   \hbase1.3.0必须关闭。

  安装配置好hbase1.4.9,配置(步骤和0.94.11相同)

         开启hbase1.4.9,实现无缝对接.

 

posted @ 2019-03-04 11:23  _Meditation  阅读(815)  评论(0编辑  收藏  举报