爬虫就是请求网站并提取数据的自动化程序,其中请求,提取,自动化是爬虫的关键,爬虫有很多的框架,那么今天我们就学习下怎么使用Scrapy。今天我们就通过实践记录下如何使用Scrapy爬取豆瓣电影Top榜单过程,作为Python爬虫框架Scrapy的入门案例。
在开始爬取之前,首先要创建一个新的 Scrapy 项目,然后我们打开豆瓣电影 TOP 的页面,通过观察页面决定让我们的爬虫获取每一部电影的排名、电影名称、评分和评分的人数https://movie.douban.com/top。
在我们爬取过程中为了防止触发反爬机制而受到阻碍,我们需要先做一些反爬策略,代理IP和随机ua的添加都是必不可少的,关于代理IP,网络上有很多的代理商,选一家靠谱的就可以,比如本文中使用到的亿牛云爬虫代理加强版。新建好项目之后我们开爬虫程序,简单的爬虫代码如下,在项目中新建douban.py文件(./项目名/douban.py)
#! -*- encoding:utf-8 -*- import base64 import sys import random PY3 = sys.version_info[0] >= 3 def base64ify(bytes_or_str): if PY3 and isinstance(bytes_or_str, str): input_bytes = bytes_or_str.encode('utf8') else: input_bytes = bytes_or_str output_bytes = base64.urlsafe_b64encode(input_bytes) if PY3: return output_bytes.decode('ascii') else: return output_bytes class ProxyMiddleware(object): def process_request(self, request, spider): # 代理服务器(产品官网 www.16yun.cn) proxyHost = "t.16yun.cn" proxyPort = "31111" # 代理验证信息 proxyUser = "username" proxyPass = "password" request.meta['proxy'] = "http://{0}:{1}".format(proxyHost,proxyPort) # 添加验证头 encoded_user_pass = base64ify(proxyUser + ":" + proxyPass) request.headers['Proxy-Authorization'] = 'Basic ' + encoded_user_pass # 设置IP切换头(根据需求) tunnel = random.randint(1,10000) request.headers['Proxy-Tunnel'] = str(tunnel)
爬取到的数据我们需要进行清洗,分析后才是干净的数据。Scrapy 爬虫框架掌握好可以事半功倍,但是遇到简单的需求未必需要使用框架去解决,所以我们需要多学习些爬虫知识,然后根据实际需求进行选择。
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 周边上新:园子的第一款马克杯温暖上架
· 分享 3 个 .NET 开源的文件压缩处理库,助力快速实现文件压缩解压功能!
· Ollama——大语言模型本地部署的极速利器
· DeepSeek如何颠覆传统软件测试?测试工程师会被淘汰吗?
· 使用C#创建一个MCP客户端