Python logging 库的『完整教程』
本文的标题是『完整』。所谓『完整』,大意是想表达:提炼出一组最小的经验组合,并且能够快速应用于工程中,能 work,甚至能完美地 work。这篇文章就是想要做到『如何能完美地work』。
初衷
最原始的初衷就是:『现在的,是不完美的,不系统的』。
一是:Python 官方对 logging 这个库的使用,介绍得不够“ 透彻 ”。我们能在官方文档中找到关于 logging 库的有价值的东西,大概是如下几样:
- 库文档,主要是介绍一些class,以及logging 库是如何组成的,中间穿插了一些零碎的使用方法,但是仍然没有系统介绍如何使用。它们分别是:
- 16.6. logging — Logging facility for Python
- 16.7. logging.config — Logging configuration
- 16.8. logging.handlers — Logging handlers
- 两篇 HOWTOs。事无巨细地介绍logging 这个库的组成和使用,优点很明显:事无巨细,基本覆盖到了。缺点也很明显:事无巨细,各个部分平均发力,让人找不到重点,很容易迷失在其中,看了和没看一样。它们分别是:
- Logging HOWTO
- Logging Cookbook
二是:新手大概需要多年的经验磨合,才会知道,日志才是调试最好的手段,日常开发中,单步调试 VS 日志调试的比例大概是 1 :9(我个人的是 0:10 )。新手一般喜欢使用单步调试,或是基于 print 的调试,这两者都是效率比较低下的,下面分别介绍:
- print调试。不想介绍了,缺点比较多,我不说,大家也懂。适用于临时性使用。
- 单步调试。优点明显:能单步,能看清每一步的状况。缺点也很明显:效率低,多线程情况下比较无解。适用于小范围使用。
现在的情况
现在的情况,如同上面所说,大家没有充分重视日志调试的作用,官方的logging库亦是缺乏比较系统的『最小可用教程』。
HOW TO DO
先从需求出发,即:从调用端推导接口设计。
调用端大概率喜欢这么使用(作为调用端,一般都希望接口越简单越小越好):
log_factory.SOME_LOGGER.info('MY LOG MSG')
这样,我们可以把『log_factory』弄成一个 package(module也可以,不过我很喜欢 Go 语言那种看似麻烦实则规范的『基于package组织项目』的原则),『SOME_LOGGER』我们可以使用单例,不过Python有全局变量这种东西,我们可以使用全局变量。
另外,一个比较直觉的想法是:日志应该要有对应的配置文件,不过Python是脚本语言, 脚本语言的源码文件,天生就是配置文件 。
这样,我们的目录可以如此规划:
common_libs/
__init__.py
log_factory/
__init__.py 代码可以直接写在这里,或者拆分成多个 py 文件,反正对外也就提供一个『log_factory』的命名空间
主要内容如下:
#!/usr/bin/env python
# -*- coding: utf-8 -*-
#
# author: he.zhiming
#
from __future__ import unicode_literals, absolute_import
import logging
import logging.config
import logging.handlers
from datetime import datetime
import os
class _InfoFilter(logging.Filter):
def filter(self, record):
"""only use INFO
筛选, 只需要 INFO 级别的log
:param record:
:return:
"""
if logging.INFO <= record.levelno < logging.ERROR:
# 已经是INFO级别了
# 然后利用父类, 返回 1
return super().filter(record)
else:
return 0
def _get_filename(*, basename='app.log', log_level='info'):
date_str = datetime.today().strftime('%Y%m%d')
pidstr = str(os.getpid())
return ''.join((
date_str, '-', pidstr, '-', log_level, '-', basename,))
class _LogFactory:
# 每个日志文件,使用 2GB
_SINGLE_FILE_MAX_BYTES = 2 * 1024 * 1024 * 1024
# 轮转数量是 10 个
_BACKUP_COUNT = 10
# 基于 dictConfig,做再次封装
_LOG_CONFIG_DICT = {
'version': 1,
'disable_existing_loggers': False,
'formatters': {
# 开发环境下的配置
'dev': {
'class': 'logging.Formatter',
'format': ('%(levelname)s %(asctime)s %(created)f %(name)s %(module)s [%(processName)s %(threadName)s] '
'[%(filename)s %(lineno)s %(funcName)s] %(message)s')
},
# 生产环境下的格式(越详细越好)
'prod': {
'class': 'logging.Formatter',
'format': ('%(levelname)s %(asctime)s %(created)f %(name)s %(module)s %(process)d %(thread)d '
'%(filename)s %(lineno)s %(funcName)s %(message)s')
}
# ? 使用UTC时间!!!
},
# 针对 LogRecord 的筛选器
'filters': {
'info_filter': {
'()': _InfoFilter,
}
},
# 处理器(被loggers使用)
'handlers': {
'console': { # 按理来说, console只收集ERROR级别的较好
'class': 'logging.StreamHandler',
'level': 'ERROR',
'formatter': 'dev'
},
'file': {
'level': 'INFO',
'class': 'logging.handlers.RotatingFileHandler',
'filename': _get_filename(log_level='info'),
'maxBytes': _SINGLE_FILE_MAX_BYTES, # 2GB
'encoding': 'UTF-8',
'backupCount': _BACKUP_COUNT,
'formatter': 'dev',
'delay': True,
'filters': ['info_filter', ] # only INFO, no ERROR
},
'file_error': {
'level': 'ERROR',
'class': 'logging.handlers.RotatingFileHandler',
'filename': _get_filename(log_level='error'),
'maxBytes': _SINGLE_FILE_MAX_BYTES, # 2GB
'encoding': 'UTF-8',
'backupCount': _BACKUP_COUNT,
'formatter': 'dev',
'delay': True,
},
},
# 真正的logger(by name), 可以有丰富的配置
'loggers': {
'SAMPLE_LOGGER': {
# 输送到3个handler,它们的作用分别如下
# 1. console:控制台输出,方便我们直接查看,只记录ERROR以上的日志就好
# 2. file: 输送到文件,记录INFO以上的日志,方便日后回溯分析
# 3. file_error:输送到文件(与上面相同),但是只记录ERROR级别以上的日志,方便研发人员排错
'handlers': ['console', file', 'file_error'],
'level': 'INFO'
},
},
}
logging.config.dictConfig(_LOG_CONFIG_DICT)
@classmethod
def get_logger(cls, logger_name):
return logging.getLogger(logger_name)
# 一个示例
SAMPLE_LOGGER = _LogFactory.get_logger('SAMPLE_LOGGER')
# 示例——debugger,需要先配置好(如同SAMPLE_LOGGER一样)
DEBUGGER = _LogFactory.get_logger('CONSOLE')
# 软件项目一般是分层的,所以可以每一层放置一个logger,各司其职,这里是一个示例
SOME_BASE_LIB_LOGGER = _LogFactory.get_logger('SOME_BASE_LIB_LOGGER')
更加高级的需求
INFO级别的handler,只使用『INFO <= && < ERROR』的日志
利用logging库提供的Filter概念,可以轻松实现:
先实现 Filter
class _InfoFilter(logging.Filter):
def filter(self, record):
"""only use INFO
筛选, 只需要 INFO 级别的log
:param record:
:return:
"""
if logging.INFO <= record.levelno < logging.ERROR:
# 已经是INFO级别了
# 然后利用父类, 返回 1
return super().filter(record)
else:
return 0
然后适配到Handler上面
'file': {
'level': 'INFO',
'class': 'logging.handlers.RotatingFileHandler',
'filename': _get_filename(log_level='info'),
'maxBytes': _SINGLE_FILE_MAX_BYTES, # 2GB
'encoding': 'UTF-8',
'backupCount': _BACKUP_COUNT,
'formatter': 'dev',
'delay': True,
'filters': ['info_filter', ] # only INFO, no ERROR
},
其他的注意事项
并不不一定适合框架(提供了完整日志规范的),如Django
Django 提供的完整的日志规范,一般的Django项目,按照框架的规范来即可(如Django,需要在settings文件中配置 LOGGING)。
应该配置多少logger
一般按照自己的需求来,我有一个特别好的方式:按照软件项目的分层结构来(软件是分层的,应该是常识),每一层配置一个logger,这样就不会混乱。
logging库是进程安全,或者线程安全的吗
是线程安全的,但不是进程安全的。但是可以很轻易地解决这点,即:每个文件名带一个pid即可,让每一个进程始终对应只属于自己的文件(见_get_filename的使用)。
更多Python视频、源码、资料加群725638078免费获取
本文来自博客园,作者:I'm_江河湖海,转载请注明原文链接:https://www.cnblogs.com/jhhh/p/16767018.html