Scrapy八小时快速入门第一小时:安装,创建与执行我们的Scrapy爬虫
安装
安装Scrapy非常简单,只需要在终端输入pip install scrapy
,然后执行命令即可,如果不行,那么一般是底层库的问题,可以使用codna install --upgrade scrapy
代替之前的命令,虽然anconda的库更新要慢一些,不过一般没什么问题
创建项目
请在命令行下scrapy startproject name
即可,示例如下,当我们使用命令之后,scrapy就会帮我们创建相应的项目:
这时候我们可以tree一下,查看我们的目录结构,其中的spider文件夹,就是我们编写我们自己的脚本的地方
Scrapy 框架除了基本的Response,request,Downloader,等之外,其强大之处就是帮助我们实现了几乎整个流程,在最基本的情况下,我们甚至只需要编写十几行代码就可以完成一个爬虫.
比如其中的item文件中编写的是对数据封装的方法
其中的pipline.py 是用来编写数据处理的方法的,在Spider中的我们自己编写的spider执行之后,我们就可以调用item中的方法对获取的数据进行处理,
而setting则是配置文件,除此之外我们还可以使用Scrapy提供给我们的很多已经写好的方法,或者重写他们来实现一些我们需要的功能,而这一切又都是非常简单的.
我们这里再从github上Scrapy 的项目中下载一个demo,或者也可以从我的这个地址下载相应的内容,之后我的这个系列的代码都会放在这个地址
我们tree一下子这个文档,就可以查看到相应的内容,示例如下:
下面是其中的示例代码:
# -*- coding: utf-8 -*-
import scrapy
class BooksSpider(scrapy.Spider):
# 首先要继承原来额Spider方法
name = "books"
# 然后是name ,用于在终端中执行该脚本
# allowed_domains = ["books.toscrape.com"]
#
start_urls = [
'http://books.toscrape.com/',
]
# 我们需要一个start url
def parse(self, response):
for book_url in response.css("article.product_pod > h3 > a ::attr(href)").extract():
yield scrapy.Request(response.urljoin(book_url), callback=self.parse_book_page)
# 然后是获取相应内容,并创建解析函数
next_page = response.css("li.next > a ::attr(href)").extract_first()
if next_page:
yield scrapy.Request(response.urljoin(next_page), callback=self.parse)
# 关键之处之一,找到下一个链接
def parse_book_page(self, response):
# 解析函数,我们在Scrapy中使用,Selector与xpath选择器,css选择器与一些其他Python代码实现该功能
item = {}
product = response.css("div.product_main")
item["title"] = product.css("h1 ::text").extract_first()
item['category'] = response.xpath(
"//ul[@class='breadcrumb']/li[@class='active']/preceding-sibling::li[1]/a/text()"
).extract_first()
item['description'] = response.xpath(
"//div[@id='product_description']/following-sibling::p/text()"
).extract_first()
item['price'] = response.css('p.price_color ::text').extract_first()
yield item
至于,这份代码的详细解释,我会在之后的内容中给出,当然这份简单的demo是不能帮助我们真正的入门的,我们还需要一些其他内容,之后我会写更多的demo.
执行
scrapy crawl name -o xxxxx.csv
,这时候我们可以在刚刚的tree的路径下,继续执行爬虫的命令,效果如图:
图片上面是执行完毕后的留下的日志,而下面则是我们刚刚执行的命令.
现在我们就可以看看我们获取的信息到底是不是我们的start_url了:
看来没什么问题