爬虫学习记录之Python 爬虫实战:某餐厅在北京门店的提取
【简介】#
利用 Python 的 requests 库实现循环爬取某餐厅在北京的名单,并将抓取的数据保存为 JSON 格式的文件。
1. 导入模块以及所需要用到的库#
本项目使用的是 requests
库和 json
库,因此需要导入这两个库。
import json
import requests
2.构造请求参数并发送请求#
post_url
:请求参数的网址
headers
:UA伪装参数
data
:为响应所携带的参数
post_url = 'http://www.kfc.com.cn/kfccda/ashx/GetStoreList.ashx?op=keyword'
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/113.0.0.0 Safari/537.36 Edg/113.0.1774.57'
}
data = {
'cname': '',
'pid': '',
'keyword': '北京',
'pageIndex': '1',
'pageSize': '10',
}
resource=requests.post(url=post_url,data=data,headers=headers)
3.最后数据持久化存储#
将resource
获得的参数转换成json
格式,将获得的数据持久化存储到kfc
文件中
res=resource.json()
fp = open('kfc.json', 'w', encoding='utf-8')
json.dump(res, fp=fp, ensure_ascii=False)
print(res)
4.完整代码#
import json
import requests
if __name__ == '__main__':
post_url = 'http://www.kfc.com.cn/kfccda/ashx/GetStoreList.ashx?op=keyword'
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/113.0.0.0 Safari/537.36 Edg/113.0.1774.57'
}
data = {
'cname': '',
'pid': '',
'keyword': '北京',
'pageIndex': '1',
'pageSize': '10',
}
resource=requests.post(url=post_url,data=data,headers=headers)
res=resource.json()
fp = open('kfc.json', 'w', encoding='utf-8')
json.dump(res, fp=fp, ensure_ascii=False)
print(res)
作者:liguochun
出处:https://www.cnblogs.com/liguochun0304/p/17997906
版权:本作品采用「署名-非商业性使用-相同方式共享 4.0 国际」许可协议进行许可。
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 分享一个免费、快速、无限量使用的满血 DeepSeek R1 模型,支持深度思考和联网搜索!
· 基于 Docker 搭建 FRP 内网穿透开源项目(很简单哒)
· ollama系列01:轻松3步本地部署deepseek,普通电脑可用
· 25岁的心里话
· 按钮权限的设计及实现