Scrapy笔记:日志的使用

scrapy的日志记录有两种方式:

  spider.logger.xx()和python标准库中的logger = logging.get_Logger('log information')

向日志对象写入信息就可以记录日志。

默认的日志是输出到控制台的,为了进一步处理这些日志,需要有统一的处理程序进行处理,这就是scrapy中自带的日志管理器,为了使用这个管理器,就需要在settings.py文件中进行配置。

  LOG_FILE 和 LOG_ENABLED 决定日志消息目的地。

  当您设置了 LOG_ENCODING ,它不会显示日志输出消息。

  LOG_LEVEL 设置确定消息的严重性顺序;严重程度不高的消息将被过滤掉。

  LOG_FORMAT 和 LOG_DATEFORMAT 用于指定所有消息的布局。

  当您设置 LOG_STDOUT 为 true ,所有的进程的标准输出和错误消息将被重定向到日志中。

 

 

在命令行模式下也可以修改日志配置

1

—logfile FILE

覆盖 LOG_FILE

2

—loglevel/-L LEVEL

覆盖 LOG_LEVEL

3

—nolog

设置 LOG_ENABLED 为 false

参考: http://www.yiibai.com/scrapy/scrapy_logging.html

posted @ 2017-05-03 16:45  zhangjpn  阅读(918)  评论(0编辑  收藏  举报