MySQL数据归档小工具推荐及优化--mysql_archiver
一.主要概述
MySQL数据库归档历史数据主要可以分为三种方式:一.创建编写SP、设置Event;二.通过dump导入导出;三.通过pt-archiver工具进行归档。第一种方式往往受限于同实例要求,往往被大家舍弃。第二种,性能相对较好,但是归档表较多时运维也是比较头疼的事。所以很多DBA往往采用第三种方式--pt-archiver。
pt-archiver是Percona-Toolkit工具集中的一个组件,是一个主要用于对MySQL表数据进行归档和清除的工具。它可以将数据归档到另一张表或者是一个文件中。pt-archiver在清除表数据的过程中并不会影响OLTP事务的查询性能。对于数据的归档,它可以归档到另一台服务器上的另一张表,也可归档到一个文件中。
有一个网友通过Python开发了将pt-archiver打包成了一个小工具—mysql_archiver,它基本实现了归档作业的配置化部署,使用起来挺不错。"MySQL_archiver基本上实现了数据归档的自动运转,统一的归档任务调度管理、自动监控和预警、自动生成报表。在一定程度上节约了生产力,提高了运维效率。"
github地址:https://github.com/dbarun/mysql_archiver
二.pt-archiver主要参数
参数 | 默认值 | 参数解释 |
--check-slave-lag | 指定主从复制延迟大于选项'--max-lag'指定的值之后暂停归档操作。默认情况下,工具会检查所有的从库,但该选项只作用于指定的从库(通过DSN连接方式)。 | |
--check-interval | 1s | 如果同时指定了选项'--check-slave-lag',则该选项指定的时间为工具发现主从复制延迟时暂停的时间。每进行操作100行时进行一次检查。 |
--[no]check-charset | yes | 指定检查确保数据库连接时字符集和表字符集相同。 |
--commit-each | 指定按每次获取和归档的行数进行提交,该选项会禁用选项'--txn-size'。 在每次获取表数据并进行归档之后,在获取下一次数据和选项'--sleep'指定的休眠时间之前,进行事务提交和刷新选项'--file'指定的文件,通过选项'--limit'控制事务的大小。 | |
--host,-h | 指定连接的数据库IP地址。 | |
--port,-P | 指定连接的数据库Port端口。 | |
--user,-u | 指定连接的数据库用户。 | |
--password,-p | 指定连接的数据库用户密码。 | |
--socket,-S | 指定使用SOCKET文件连接。 | |
--databases,-d | 指定连接的数据库 | |
--source | 指定需要进行归档操作的表,该选项是必须指定的选项,使用DSN方式表示。 | |
--dest | 指定要归档到的目标端表,使用DSN方式表示。 如果该选项没有指定的话,则默认与选项'--source'指定源端表为相同表。 | |
--where | 指定通过WHERE条件语句指定需要归档的数据,该选项是必须指定的选项。不需要加上'WHERE'关键字,如果确实不需要WHERE条件进行限制,则指定'--where 1=1'。 | |
--file | 指定表数据需要归档到的文件。使用类似MySQL DATE_FORMAT()格式化命名方式。 文件内容与MySQL中SELECT INTO OUTFILE语句使用相同的格式,文件命名选项如下所示: ' %Y:年,4位数(Year, numeric, four digits) %m:月,2位数(Month, numeric (01..12)) %d:日,2位数(Day of the month, numeric (01..31)) %H:小时(Hour (00..23)) %i:分钟(Minutes, numeric (00..59)) %s:秒(Seconds (00..59)) %D:数据库名(Database name) %t:表名(Table name) 例如:--file '/var/log/archive/%Y-%m-%d-%D.%t' ' | |
--output-format | 指定选项'--file'文件内容输出的格式。 默认不指定该选项是以制表符进行字段的分隔符,如果指定该选项,则使用','(逗号)作为字段分隔符,使用'"'(双引号)将字段括起。用法示例:'--output-format=dump'。 | |
--limit | 1 | 指定每条语句获取表和归档表的行数。 |
--max-lag | 1s | 指定允许主从复制延迟时长的最大值,单位秒。如果在每次获取行数据之后主从延迟超过指定的值,则归档操作将暂停执行,暂停休眠时间为选项'--check-interval'指定的值。待休眠时间结束之后再次检查主从延迟时长,检查方法是通过从库查询的'Seconds_Behind_Master'值来确定。如果主从复制延迟一直大于该参数指定值或者从库停止复制,则操作将一直等待直到从库重新启动并且延迟小于该参数指定值. |
--no-delete | 指定不删除已被归档的表数据。 | |
--progress | 指定每多少行打印进度信息,打印当前时间,已用时间以及多少行进行归档。 | |
--purge | 指定执行的清除操作而不是归档操作。允许忽略选项'--dest'和'--file'进行操作,如果只是清除操作可以结合选项'--primary-key-only'会更高效。 | |
--replace | 指定写入选项'--dest'指定目标端表时改写INSERT语句为REPLACE语句。 | |
--retries | 1 | 指定归档操作遇到死锁或超时的重试次数。当重试次数超过该选项指定的值时,工具将报错退出。 |
--run-time | 指定工具归档操作在退出之前需要运行的时间。允许的时间后缀名为s=秒,m=分,h=小时,d=天,如果没指定,默认为s。 | |
--[no]safe-auto-increment | yes | 指定不使用自增列(AUTO_INCREMENT)最大值对应的行进行归档。 该选项在进行归档清除时会额外添加一条WHERE子句以防止工具删除单列升序字段具有的具有AUTO_INCREMENT属性最大值的数据行,为了在数据库重启之后还能使用到AUTO_INCREMENT对应的值,但这会引起无法归档或清除字段对应最大值的行。 |
--sleep | 指定工具在通过SELECT语句获取归档数据需要休眠的时间,默认值是不进行休眠。在休眠之前事务并不会提交,并且选项'--file'指定的文件不会被刷新。如果指定选项'--commit-each',则在休眠之前会进行事务提交和文件刷新。 | |
--statistics | 指定工具收集并打印操作的时间统计信息。 | |
--txn-size | 1 | 指定每个事务处理的行数。如果是0则禁用事务功能。 |
--why-quit | 指定工具打印当非因完成归档行数退出的原因。 在执行一个自动归档任务时该选项与选项'--run-time'一起使用非常方便,这样可以确定归档任务是否在指定的时间内完成。如果同时指定了选项'--statistics',则会打印所有退出的原因。 | |
--skip-foreign-key-checks | 指定使用语句SET FOREIGN_KEY_CHECKS = 0禁用外键检查。 |
三,安装部署mysql_archiver常见错误
1. 执行python db_archive_exec.py 127.0.0.1 db123 报错
Traceback (most recent call last): File "/data/XXXXXX/mysql_archiver-master/db_archive_exec.py", line 7, in <module> import db_conn File "/data/XXXXXX/mysql_archiver-master/db_conn.py", line 4, in <module> import MySQLdb ImportError: No module named MySQLdb
解决方案:
Step 1 基础环境
rm -rf /etc/yum.repos.d/epel* yum install postgresql-devel python3-devel postgresql-devel python-devel
Step 2 安装setuptools
(1) 下载 setuptools-39.2.0.zip (2) 解压安装 python setup.py build python setup.py install
step 3 安装pip
(1) 下载 pip-1.5.4.tar.gz (2) 安装 python setup.py install
step 4 安装MySQL-python
yum install MySQL-python
2.报错缺少pt-archiver工具
sh: pt-archiver: command not found
解决方案:
下载percona-toolkit-3.2.1_x86_64.tar.gz,安装,并且设置个软连接。
例如:
ln -s /data/XXXXXXXX/percona-toolkit-3.2.1/bin/pt-archiver /usr/local/bin/pt-archiver
3.缺少文档
<type 'exceptions.Exception'> [Errno 2] No such file or directory: u'/software/python_script/db_archive_XXXXdb_XXXtablename.log'
解决方案:
创建文档: /software/python_script
4.字符集问题
Character set mismatch: --source DSN uses utf8, table uses utf8mb4. You can disable this check by specifying --no-check-charset.
解决方案:
修改db_archive_exec.py可执行文件,针对pt-archiver添加参数 --no-check-charset
5.参数设置报错
Usage: pt-archiver [OPTIONS] --source DSN --where WHERE Errors in command-line arguments: * --txn-size and --commit-each are mutually exclusive. pt-archiver nibbles records from a MySQL table. The --source and --dest arguments use DSN syntax; if COPY is yes, --dest defaults to the key's value from --source. For more details, please use the --help option, or try 'perldoc /usr/local/bin/pt-archiver' for complete documentation.
解决方案:
pt-archiver去掉参数 --commit-each
6.Cannot find encoding "utf8mb4"
报错信息:
Cannot find encoding "utf8mb4" at /usr/local/bin/pt-archiver line 6711.
解决方案:
pt-archiver去掉参数 --bulk-insert --bulk-delete
7.执行 db_archive_exec.py 报错
报错信息
<type 'exceptions.Exception'> 'ascii' codec can't decode byte 0xe6 in position 0: ordinal not in range(128)
解决方案
修改优化的代码部分,不要有中文,即剔除添加的中文,修改为英文即可。
8.执行db_archive_monitor.py报错
Traceback (most recent call last): File "/data/XXXXX/mysql_archiver-master/db_archive_monitor.py", line 5, in <module> from db_log import db_archive_monitor_log ImportError: No module named db_log
解决方案
转到目录db_log,执行如下脚本
echo '' > __init__.py
生成__init__.py文件
9. crontab执行python脚本问题
调试和手动执行,都没有问题,但是发现没有成功执行备份。
为了定位问题,我们可以将cron执行情况,打印初始处理。将crontab调整如下:
调整前:
34 11 * * * python /data/mysql_archiver/mysql_archiver-master/db_archive_exec.py 122.122.122.122 qqorderdb
调整后
34 11 * * * python /data/mysql_archiver/mysql_archiver-master/db_archive_exec.py 122.122.122.122 qqorder >> /data/mysql_archiver/mysql_archiver-master/db_log/logs/crontab_archiver.log 2>&1
查看执行log文件,报错信息如下:
[laobao@qqorder]# tail -100 crontab_archiver.log
sh: pt-archiver: command not found
sh: pt-archiver: command not found
sh: pt-archiver: command not found
sh: pt-archiver: command not found
sh: pt-archiver: command not found
问题明白了,解决方案如下:
调整前:
调整后:
10.执行 db_archive_exec.py 可能遇到其他的报错
A.报错如下
Can't locate Digest/MD5.pm in @INC (@INC contains: /usr/local/lib64/perl5 /usr/local/share/perl5 /usr/lib64/perl5/vendor_perl /usr/share/perl5/vendor_perl /usr/lib64/perl5 /usr/share/perl5 .) at /usr/local/bin/pt-archiver line 5410. BEGIN failed--compilation aborted at /usr/local/bin/pt-archiver line 5410.
解决方案:
yum -y install perl-Digest-MD5
B.报错如下:
Cannot connect to MySQL because the Perl DBI module is not installed or not found. Run 'perl -MDBI' to see the directories that Perl searches for DBI. If DBI is not installed, try: Debian/Ubuntu apt-get install libdbi-perl RHEL/CentOS yum install perl-DBI OpenSolaris pkg install pkg:/SUNWpmdbi
解决方案:
yum install perl-DBI
C.报错如下:
Cannot connect to MySQL because the Perl DBD::mysql module is not installed or not found. Run 'perl -MDBD::mysql' to see the directories that Perl searches for DBD::mysql. If DBD::mysql is not installed, try: Debian/Ubuntu apt-get install libdbd-mysql-perl RHEL/CentOS yum install perl-DBD-MySQL OpenSolaris pgk install pkg:/SUNWapu13dbd-mysql
解决方案:
yum install perl-DBD-MySQL
四.功能优化
为工具mysql_archiver添加只删除不备份的功能,即只删除源库上的数据,而不用迁移。
1.优化配置表db_archive_info的建表语句
DROP TABLE IF EXISTS `db_archive_info`; CREATE TABLE `db_archive_info` ( `id` int(11) NOT NULL AUTO_INCREMENT COMMENT '表id', `server_source` varchar(640) DEFAULT NULL COMMENT '源服务器', `port_source` varchar(64) DEFAULT NULL COMMENT '源服务器端口', `user_source` varchar(64) DEFAULT NULL COMMENT '源数据库用户', `password_source` varchar(128) DEFAULT NULL COMMENT '源数据库密码', `db_source` varchar(64) DEFAULT NULL COMMENT '源数据库schema', `table_source` varchar(128) DEFAULT NULL COMMENT '源数据库表', `server_dest` varchar(640) DEFAULT '' COMMENT '目标服务器', `port_dest` varchar(64) DEFAULT '' COMMENT '目标服务器端口', `user_dest` varchar(64) DEFAULT '' COMMENT '目标数据库用户', `password_dest` varchar(128) DEFAULT '' COMMENT '目标数据库密码', `db_dest` varchar(64) DEFAULT '' COMMENT '目标数据库schema', `table_dest` varchar(128) DEFAULT '' COMMENT '目标数据库表', `archive_condition` varchar(1000) DEFAULT NULL COMMENT '数据归档条件', `last_archive_date` timestamp NULL DEFAULT NULL ON UPDATE CURRENT_TIMESTAMP COMMENT '最近归档时间', `last_archive_qty` int(10) DEFAULT NULL COMMENT '最近归档数量', `state` varchar(255) DEFAULT 'A' COMMENT '数据行状态', `user_created` varchar(128) DEFAULT 'SYS' COMMENT '数据行创建人', `datetime_created` timestamp NULL DEFAULT CURRENT_TIMESTAMP COMMENT '数据行创建时间', `user_modified` varchar(128) DEFAULT 'SYS' COMMENT '数据行修改人', `datetime_modified` timestamp NULL DEFAULT CURRENT_TIMESTAMP ON UPDATE CURRENT_TIMESTAMP COMMENT '数据行修改时间', PRIMARY KEY (`id`) ) ENGINE=InnoDB AUTO_INCREMENT=14 DEFAULT CHARSET=utf8 COMMENT='数据库归档基础信息表';
2.修改备份脚本
#!/usr/bin/python # -*- coding: UTF-8 -*- import sys import os import time import db_conn # get db connection db = db_conn.db # use cursor cursor = db.cursor() # 获取命令行参数 server_source = sys.argv[1] db_source = sys.argv[2] try: # SQL 查询语句 sql = "select id, server_source, port_source, user_source, password_source, db_source, table_source," \ "server_dest, port_dest, user_dest, password_dest, db_dest, table_dest, archive_condition " \ "from db_archive_info " \ "where server_source = '%s' and db_source = '%s' " % (server_source, db_source) # 执行SQL语句 cursor.execute(sql) # 获取所有记录列表 results = cursor.fetchall() for row in results: id = row[0] server_source = row[1] port_source = row[2] user_source = row[3] password_source = row[4] db_source = row[5] table_source = row[6] server_dest = row[7] port_dest = row[8] user_dest = row[9] password_dest = row[10] db_dest = row[11] table_dest = row[12] archive_condition = row[13] # 归档开始时间 archive_starttime = time.strftime('%Y-%m-%d %H:%M:%S') # 生成pt-archive命令 ## 兼容只删除不归档功能, if server_dest != '' and port_dest != '' and port_dest != '': archive_cmd = "/usr/local/bin/pt-archiver " \ "--source h='%s',P='%s',u='%s',p='%s',D='%s',t='%s' " \ "--dest h='%s',P='%s',u='%s',p='%s',D='%s',t='%s' " \ "--no-check-charset --charset=utf8mb4 --where '%s' --progress 50000 --limit 10000 --txn-size 10000 " \ "--statistics --purge " % \ (server_source, port_source, user_source, password_source, db_source, table_source, \ server_dest, port_dest, user_dest, password_dest, db_dest, table_dest, \ archive_condition) elif server_dest == '' and port_dest == '' and port_dest == '': archive_cmd = "/usr/local/bin/pt-archiver " \ "--source h='%s',P='%s',u='%s',p='%s',D='%s',t='%s' " \ "--no-check-charset --charset=utf8mb4 --where '%s' --progress 50000 --limit 10000 --txn-size 10000 " \ "--statistics --purge " % \ (server_source, port_source, user_source, password_source, db_source, table_source,archive_condition) # print archive_cmd # make a copy of original stdout route stdout_archive = sys.stdout # define the log file that receives your log info log_file = open("/software/python_script/db_archive_%s_%s.log" % (db_source, table_source), "w") # redirect print output to log file sys.stdout = log_file # archive_cmd = os.popen(pt_archive) with os.popen(archive_cmd) as c: # with open("db_archive1.log", "r") as c: archive_log = c.read() print(archive_log) # close log file log_file.close() # restore the output to initial pattern sys.stdout = stdout_archive # 定义归档相关变量 inserted_qty = 0 deleted_qty = 0 # 归档结束时间 archive_endtime = time.strftime('%Y-%m-%d %H:%M:%S') with open("/software/python_script/db_archive_%s_%s.log" % (db_source, table_source), "r") as f: for line in f: if 'INSERT' in line: i = line.index(" ") inserted_qty = line[i + 1:] elif 'DELETE' in line: i = line.index(" ") deleted_qty = line[i + 1:] # 判断归档是否失败 if server_dest != '' and port_dest != '' and port_dest != '': if inserted_qty == deleted_qty: archive_status = 'Y' archive_error = '' else: archive_status = 'N' archive_error = 'inserted_qty and deleted_qty are not equal' elif server_dest == '' and port_dest == '' and port_dest == '': archive_status = 'Y' archive_error = 'Delete Data OP' # insert sql sql_insert = "insert into db_archive_log(server_source, db_source, table_source, server_dest, " \ "db_dest, table_dest, archive_qty, archive_cmd, archive_log, archive_start, archive_end, " \ "archive_status, archive_error ) " \ "values('%s','%s','%s','%s','%s','%s','%s','%s','%s','%s','%s','%s','%s')" % \ (server_source, db_source, table_source, server_dest, \ db_dest, table_dest, inserted_qty, db.escape_string(archive_cmd), archive_log, archive_starttime, archive_endtime, \ archive_status, archive_error) # exec sql cursor.execute(sql_insert) # exec commit db.commit() if archive_status == 'Y': sql_update = "update db_archive_info " \ "set datetime_modified = '%s', last_archive_date = '%s', last_archive_qty = %s " \ "where id = %d" % \ (archive_starttime, archive_endtime, inserted_qty, id) cursor.execute(sql_update) # exec commit db.commit() except Exception, e: print str(Exception) print str(e)
3.说明
修改db_archive_info的建表语句,将默认值null 调整为‘’,主要是我们通过 server_dest == '' and port_dest == '' and port_dest == '' 来判断是归档还是直接删除。
如果按照修改前的默认值NULL,这几列值不维护,则报错。
DBI connect('None;host=None;port=None;charset=utf8mb4;mysql_read_default_group=client','None',...) failed: Unknown MySQL server host 'None' (2) at /usr/local/bin/pt-archiver line 2525.
五.功能持续优化(异常)
5.1 代码优化
运行过程中,我们发现程序不能捕获一些异常,例如当源表和目标表的表结构不一致时,程序没有报错,异常没有记录到log表中。
还有就是try..except的异常也没有记录下来,针对这些异常情况,我们将代码调整优化如下:
#!/usr/bin/python # -*- coding: UTF-8 -*- import sys import os import time import db_conn ### add 部署pt执行过程中的问题 import subprocess ###os.popen不能返回error,故需要使用这个方法 #### 以下两行代码是为了解决错误:<type 'exceptions.Exception'> 'ascii' codec can't decode byte 0xe6 in position 0: ordinal not in range(128) reload(sys) sys.setdefaultencoding('utf8') ### # get db connection db = db_conn.db # use cursor cursor = db.cursor() # 获取命令行参数 server_source = sys.argv[1] db_source = sys.argv[2] try: # SQL 查询语句 sql = "select id, server_source, port_source, user_source, password_source, db_source, table_source," \ "server_dest, port_dest, user_dest, password_dest, db_dest, table_dest, archive_condition " \ "from db_archive_info " \ "where server_source = '%s' and db_source = '%s' " % (server_source, db_source) # 执行SQL语句 cursor.execute(sql) # 获取所有记录列表 results = cursor.fetchall() for row in results: id = row[0] server_source = row[1] port_source = row[2] user_source = row[3] password_source = row[4] db_source = row[5] table_source = row[6] server_dest = row[7] port_dest = row[8] user_dest = row[9] password_dest = row[10] db_dest = row[11] table_dest = row[12] archive_condition = row[13] # 归档开始时间 archive_starttime = time.strftime('%Y-%m-%d %H:%M:%S') # 生成pt-archive命令 ## 兼容只删除不归档功能, if server_dest != '' and port_dest != '' and port_dest != '': archive_cmd = "/usr/local/bin/pt-archiver " \ "--source h='%s',P='%s',u='%s',p='%s',D='%s',t='%s' " \ "--dest h='%s',P='%s',u='%s',p='%s',D='%s',t='%s' " \ "--no-check-charset --charset=utf8mb4 --where '%s' --progress 50000 --limit 10000 --txn-size 10000 " \ "--statistics --purge " % \ (server_source, port_source, user_source, password_source, db_source, table_source, \ server_dest, port_dest, user_dest, password_dest, db_dest, table_dest, \ archive_condition) elif server_dest == '' and port_dest == '' and port_dest == '': archive_cmd = "/usr/local/bin/pt-archiver " \ "--source h='%s',P='%s',u='%s',p='%s',D='%s',t='%s' " \ "--no-check-charset --charset=utf8mb4 --where '%s' --progress 50000 --limit 10000 --txn-size 10000 " \ "--statistics --purge " % \ (server_source, port_source, user_source, password_source, db_source, table_source,archive_condition) # print archive_cmd # make a copy of original stdout route stdout_archive = sys.stdout # define the log file that receives your log info log_file = open("/software/python_script/db_archive_%s_%s.log" % (db_source, table_source), "w") # redirect print output to log file sys.stdout = log_file #### os.popen 不能访问error,故用subprocess.Popen来替换。修改执行shell命令的方法。 #修改前 ##with os.popen(archive_cmd) as c: ## archive_log = c.read() ## print(archive_log) #修改后 sp = subprocess.Popen(archive_cmd,shell=True, stdout=subprocess.PIPE, stderr=subprocess.PIPE) sp_out, sp_err = sp.communicate() archive_log = sp_out + sp_err print(archive_log) ##### end # close log file log_file.close() # restore the output to initial pattern sys.stdout = stdout_archive ### start 如果出现出现源表和目标表结构不一致的情况,存在数据库中 if 'The following columns exist in' in archive_log and 'but not' in archive_log : archive_status = 'N' archive_error = '源表和目标表数据结构不一致' archive_starttime = time.strftime('%Y-%m-%d %H:%M:%S') archive_endtime = time.strftime('%Y-%m-%d %H:%M:%S') sql_insert = "insert into db_archive_log(server_source, db_source, table_source, server_dest, " \ "db_dest, table_dest,archive_cmd, archive_log, archive_start, archive_end, " \ "archive_status, archive_error ) " \ "values('%s','%s','%s','%s','%s','%s','%s','%s','%s','%s','%s','%s')" % \ (server_source, db_source, table_source, server_dest, \ db_dest, table_dest, cursor._connection.converter.escape(archive_cmd), archive_log, archive_starttime, archive_endtime, \ archive_status, archive_error) # exec sql cursor.execute(sql_insert) # exec commit db.commit() continue ###跳出本循环,开始下一个表 ####其实认为这个continue 可有可无,因为不是不错。 ###### end 异常插入表结束 # 定义归档相关变量 inserted_qty = 0 deleted_qty = 0 # 归档结束时间 archive_endtime = time.strftime('%Y-%m-%d %H:%M:%S') with open("/software/python_script/db_archive_%s_%s.log" % (db_source, table_source), "r") as f: for line in f: if 'INSERT' in line: i = line.index(" ") inserted_qty = line[i + 1:] elif 'DELETE' in line: i = line.index(" ") deleted_qty = line[i + 1:] # 判断归档是否失败 if server_dest != '' and port_dest != '' and port_dest != '': if inserted_qty == deleted_qty: archive_status = 'Y' archive_error = '' else: archive_status = 'N' archive_error = 'inserted_qty and deleted_qty are not equal' elif server_dest == '' and port_dest == '' and port_dest == '': archive_status = 'Y' ###移除(不归档只删除,没有inserted_qty,,只有deleted_qty,因此赋值) inserted_qty = deleted_qty archive_error = 'Delete Data OP' # insert sql sql_insert = "insert into db_archive_log(server_source, db_source, table_source, server_dest, " \ "db_dest, table_dest, archive_qty, archive_cmd, archive_log, archive_start, archive_end, " \ "archive_status, archive_error ) " \ "values('%s','%s','%s','%s','%s','%s','%s','%s','%s','%s','%s','%s','%s')" % \ (server_source, db_source, table_source, server_dest, \ db_dest, table_dest, inserted_qty, cursor._connection.converter.escape(archive_cmd), archive_log, archive_starttime, archive_endtime, \ archive_status, archive_error) # exec sql cursor.execute(sql_insert) # exec commit db.commit() if archive_status == 'Y': sql_update = "update db_archive_info " \ "set datetime_modified = '%s', last_archive_date = '%s', last_archive_qty = %s " \ "where id = %d" % \ (archive_starttime, archive_endtime, inserted_qty, id) cursor.execute(sql_update) # exec commit db.commit() except Exception, e: ###修改前,print() 一定要放到最后,否则print()后面的代码都不执行了 #print str(Exception) #print str(e) #### start 部分错误信息没有记录在log文件中,try...catch 捕获到的错误在此记录,例如:ValueError: I/O operation on closed file。 archive_status = 'N' archive_error = str(e) ##print(archive_error) archive_starttime = time.strftime('%Y-%m-%d %H:%M:%S') archive_endtime = time.strftime('%Y-%m-%d %H:%M:%S') sql_insert = "insert into db_archive_log(server_source, db_source,archive_start, archive_end,archive_status, archive_error ) " \ "values('%s','%s','%s','%s','%s','%s')" % \ (server_source, db_source, archive_starttime,archive_endtime,archive_status, archive_error) cursor.execute(sql_insert) # exec commit db.commit() print str(Exception) print str(e) #### end
5.2 补充说明
说明1.
popen 也时引用了subprocess方法,但是 驱动shell命令,没有接受error,只有stdout,我们查看源码。如下:
def popen(cmd, mode="r", buffering=-1): if not isinstance(cmd, str): raise TypeError("invalid cmd type (%s, expected string)" % type(cmd)) if mode not in ("r", "w"): raise ValueError("invalid mode %r" % mode) if buffering == 0 or buffering is None: raise ValueError("popen() does not support unbuffered streams") import subprocess, io if mode == "r": proc = subprocess.Popen(cmd, shell=True, stdout=subprocess.PIPE, bufsize=buffering) return _wrap_close(io.TextIOWrapper(proc.stdout), proc)
说明2.
如果源表和目标表,表结构不一致,pt-archiver 报错信息可能不完全相同。
例如:
The following columns exist in --dest but not --source:XXXXXXXXXXXXXXXX
The following columns exist in --source but not --dest:XXXXXXXXXXXXXXXX
同样的问题,可能报错不一样。
原因是可能是以源表区比较目标表,也可能是以目标表去反向比较源表。
六.主要参考资料
1.MySQL数据归档实战-Python和pt-archiver的强强结合
https://blog.csdn.net/n88lpo/article/details/78905528?utm_medium=distribute.pc_relevant.none-task-blog-baidulandingword-14&spm=1001.2101.3001.4242
2.MySQL数据归档小工具
https://github.com/dbarun/mysql_archiver#readme
3.在linux下安装MySQLdb及基本操作
https://www.cnblogs.com/blogsme/archive/2012/12/12/2814588.html
4.pt工具之pt-archiver
https://www.cnblogs.com/yhq1314/p/10601801.html
5.linux下pip的安装步骤及使用详解
https://www.jb51.net/article/118035.htm
6.Percona-Toolkit 之 pt-archiver 总结
https://www.cnblogs.com/dbabd/p/10721857.html