scrapy框架之log日志
scrapy中的debug信息#
在scrapy中设置log#
1、在settings中设置log级别,在settings.py中添加一行:
Scrapy提供5层logging级别: CRITICAL - 严重错误(critical) ERROR - 一般错误(regular errors) WARNING - 警告信息(warning messages) INFO - 一般信息(informational messages) DEBUG - 调试信息(debugging messages)
scrapy默认显示DEBUG级别的log信息
2、将输出的结果保存为log日志,在settings.py中添加路径:
LOG_FILE = './log.log'
3、显示log位置,在pipelines.py中:
import logging logger = logging.getLogger(__name__) def process_item(self, item, spider): logger.warning(item) ....
4.在spider
文件中引入Log日志:
class DcdappSpider(scrapy.Spider): name = 'dcdapp' allowed_domains = ['m.dcdapp.com'] custom_settings = { # 设置管道下载 'ITEM_PIPELINES': { 'autospider.pipelines.DcdAppPipeline': 300, }, # 设置log日志 'LOG_LEVEL':'DEBUG', 'LOG_FILE':'./././Log/dcdapp_log.log' }
分类:
爬虫
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】博客园携手 AI 驱动开发工具商 Chat2DB 推出联合终身会员
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· .NET Core 对象分配(Alloc)底层原理浅谈
· 聊一聊 C#异步 任务延续的三种底层玩法
· 敏捷开发:如何高效开每日站会
· 为什么 .NET8线程池 容易引发线程饥饿
· golang自带的死锁检测并非银弹
· 2024年终总结:5000 Star,10w 下载量,这是我交出的开源答卷
· 一个适用于 .NET 的开源整洁架构项目模板
· AI Editor 真的被惊到了
· API 风格选对了,文档写好了,项目就成功了一半!
· 【开源】C#上位机必备高效数据转换助手