scrapy框架安装及创建

介绍:大而全的爬虫组件

使用Anaconda

conda install -c conda-forge scrapy

一、安装:

windows

1.下载 https://www.lfd.uci.edu/~gohlke/pythonlibs/#twisted

耐心等待网页刷新

pip3 install -i https://pypi.douban.com/simple wheel
pip3 install "D:\typed_ast-1.4.0-cp37-cp37m-win_amd64.whl"
pip3 install -i https://pypi.douban.com/simple pywin32
pip3 install -i https://pypi.douban.com/simple scrapy

linux

pip3 install -i https://pypi.douban.com/simple scrapy

二、创建

1.创建项目

scrapy startproject xx

 目录结构

scrapy startproject 项目名称

项目名称
    项目名称/
        - spiders                # 爬虫文件 
            ....
        - items.py                 # 持久化
        - pipelines                # 持久化
        - middlewares.py        # 中间件
        - settings.py             # 配置文件(爬虫)
    scrapy.cfg                    # 配置文件(部署)

2.创建爬虫(根据提示)

scrapy genspider autohome autohome.com

3.启动爬虫

scrapy crawl autohome
scrapy crawl autohome --nolog # 不打印日志

查看不同等级的日志

scrapy crawl quotes -L INFO

 直接开启爬虫

scrapy runspider <spider_file.py>

调试

scrapy shell url

shell url的响应的html是: response

下载

scraopy view url

 

posted @ 2019-10-22 22:47  市丸银  阅读(195)  评论(0编辑  收藏  举报