[windows] anaconda 安装 scrapy 以及编写第一个crawl脚本

本文记录使用 anaconda 安装 scrapy.

下载和安装 anaconda

https://docs.anaconda.com/anaconda/install/

我的环境是 windows. 所以安装过程比较简单. 在这里我勾选了两个 checkbox

然后持续点击 next, 直到安装完成.

安装 scrapy

打开 anaconda cmd

执行

conda install scrapy

此时输入

scarpy

会看到

通常会一次成功,在安装过程中,一定不要中断,否则下次安装因之前的文件不会删除,会提示失败。可能需要执行一次

conda clean --lock

使用 scrapy 创建第一个爬虫项目

scrapy startproject tutorial

然后使用 vs code 打开文件夹

创建爬虫文件, 代码如下

import scrapy


class QuotesSpider(scrapy.Spider):
    name = "quotes"

    def start_requests(self):
        urls = [
            'http://quotes.toscrape.com/page/1/',
            'http://quotes.toscrape.com/page/2/',
        ]
        for url in urls:
            yield scrapy.Request(url=url, callback=self.parse)

    def parse(self, response):
        page = response.url.split("/")[-2]
        filename = 'quotes-%s.html' % page
        with open(filename, 'wb') as f:
            f.write(response.body)
        self.log('Saved file %s' % filename)

你可能会发现 import scrapy 报错: Unable to import scrapy package, 解决方案如下:

此处需要为 vs code 指定一个解释器, 来自 Stack Overflow 的解释: Unable to import scrapy package

  • ctrl + shift + p

  • 输入 Python: Select Interpreter

我选 anaconda

进入顶层folder目录执行

scrapy crawl quotes

http://www.scrapyd.cn/doc/124.html

https://www.jianshu.com/p/6bc5a4641629

http://docs.scrapy.org/en/latest/intro/install.html

https://docs.anaconda.com/anaconda/install/

posted @ 2020-03-23 19:56  YanyuWu  阅读(444)  评论(0编辑  收藏  举报