Python爬虫项目讲解:采集地方官方网站采购商品数据

前言

今天, 带大家采集地方官方网站的商品数据,其实这些公开的商品数据就是展示给用户看的,只不过我们通过爬虫采集下来可以更加方便我们看数据, 以及方便后续对数据做分析。

一起来看看吧!

本篇文章代码内容:

  1. 分析网页性质, 找数据请求的地址
  2. json数据的数据解析
  3. 如何保存成csv

环境介绍:

  • python 3.6
  • pycharm
  • requests
  • csv

爬虫案例实现的步骤:

  1. 找数据对应的url地址
  2. 发送指定地址的请求
  3. 数据的提取
  4. 数据保存

受害者地址:http://hljcg.hlj.gov.cn/

1. 找数据对应的url <统一资源定位符(链接地址)> 地址

原始表单数据

 

url = 'http://hljcg.hlj.gov.cn/proxy/trade-service/mall/search/searchByParamFromEs'
headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/90.0.4430.93 Safari/537.36'}

json_data = {"queryPage":{"platformId":20,"pageSize":28,"pageNum":1},"orderType":"desc","homeType":"10","isAggregation":"true","publishType":"1","orderColumn":"saleCount","cid":1000033,"businessType":"1","cids":[]}

 

2. 发送指定地址的请求

import requests  # 数据请求模块, 第三方模块
import pprint  # 格式化输出

response = requests.post(url=url, json=json_data, headers=headers)
json_data = response.json()  # 变量
pprint.pprint(json_data)

 

3. 数据的提取,json提取

取下每一条商品数据

result_list = json_data['data']['itemList']['resultList']
# print(result_list)

for result in result_list:
    print(result)

 

键值对取值

skuName = result['skuName']  # 商品名字
maxPrice = result['maxPrice']  # 商品价格
pictureUrl = result['pictureUrl'].replace('\n', ' | ')  # 商品图片链接
print(skuName, maxPrice, pictureUrl)

 

4. 数据保存

import csv   # 数据保存模块, 内置模块

with open('商品数据.csv', mode='a', encoding='utf-8', newline='') as f:
    csv_write = csv.writer(f)
    csv_write.writerow([skuName, maxPrice, pictureUrl])

 

最后运行代码得到结果

posted @ 2021-07-31 15:25  松鼠爱吃饼干  阅读(418)  评论(0编辑  收藏  举报
Title