python 基础之scrapy
安装:
install scrapy # -i https://pipy.douban.com/simple 不一定好用改其他源码
创建scrapy项目的命令:
scrapy startproject <项目名字>
创建爬虫命令:在项目路径下执行:
`scrapy genspider <爬虫名字> <允许爬取的域名>`
scrapy genspider baidu www.baidu.com
运行项目:
scrapy crawl 爬虫名字 [--nolog]
import scrapy
class BaiduSpider(scrapy.Spider):
name = "baidu" # 运行项目名字
allowed_domains = ["www.baidu.com"] # 域名
start_urls = ["https://www.baidu.com"] # 开发爬取的网页
def parse(self, response): # 运行爬虫
print(response) # response 响应的数据
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 无需6万激活码!GitHub神秘组织3小时极速复刻Manus,手把手教你使用OpenManus搭建本
· C#/.NET/.NET Core优秀项目和框架2025年2月简报
· 一文读懂知识蒸馏
· Manus爆火,是硬核还是营销?
· 终于写完轮子一部分:tcp代理 了,记录一下