恢复数据加数据迁移(个人笔记,对读者无用)
使用的xtrabackup做的恢复数据,后面抽数到大数据平台的hdfs供hive创建外表用。
拿到 zichan.tar.gz(是目录)。里面就是一个压缩包。
#解压zichan.tar.gz tar zvxfi xxxxx.tar.gz #创建备份目录zichan,与zichan.tar.gz同级目录。 mkdir zichan #将xxxxx.tar.gzmv到备份目录。 mv xxxxx.tar.gz ../zichan/ #恢复数据命令(实际情况自行修改路径),在自行完毕后,看见"completed OK!"就成功。 /opt/percona-xtrabackup-2.4.14-linux-x86_64/bin/innobackupex --defaults-file=/mnt/disk1/zichan.tar.gz/back-my.cnf --apply-log /mnt/disk1/zichan.tar.gz/ #删除解压后的里面的部分不要的目录 rm -rf mysql rm -rf information_schema rm -rf test #将数据库文件mv到本地mysql的data目录下。(文件过大的话cp太慢) mv /mnt/disk1/zichan.tar.gz/zichan* /mnt/disk1/mysql/data/ #将zichan.tar.gz下的所有目录文件cp到本地的mysql的data目录下。会提示你是否覆盖data下的同名文件,直接“y”。 cp /mnt/disk1/zichan.tar.gz/* /mnt/disk1/mysql/data/ #修改data路径下的文件的所属用户和用户组。 chown -R mysql:mysql ./ #重新启动mysql,这时候就可以登录mysql看见有mv过来的全部数据库了(zichan***)。 server mysql start #抽数阶段①(mysql到hdfs)。修改和java的jar所在的路径conf.properties,这个jar就是抽数的。 #修改1,mysql所在的ip #修改2,修改你所想抽取的mysql数据库。 #修改3,线程数,可以不用改。这个的修改和代码有关?还是节点的性能有关?代码还没有看过。 #抽数阶段②,运行jar包。 nohup java -jar xxxx.jar & #查看运行过程及结果。当所有线程结束就完成。完成后就可以删除nohup.out(nohup日志) tail -f nohup.out #最后一步,结束掉刚刚运行的java进程。 ps -ef | grep jar包或者jar包关键字 kill -9 进程号