随笔分类 -  爬虫

摘要:接口抓包: "queryParams": "abbucket=18&id=843141379031&ns=1&priceTId=2100c84717388323975413307e0c1d&skuId=5617801440266&spm=a21n57.imgsearch.item.57.251852 阅读全文
posted @ 2025-02-07 15:56 踩坑大王 阅读(14) 评论(0) 推荐(0) 编辑
摘要:pc的: https://detail.tmall.hk/hk/item.htm?abbucket=18&id=656459068807&ns=1&pisk=gOMjEEXUGZbXK78iZqxzR6v_K92_M3JFlGZtxcBVX-eYWbin5r-Mi-l75437kt-Di5Uso-F 阅读全文
posted @ 2025-02-06 17:09 踩坑大王 阅读(11) 评论(0) 推荐(0) 编辑
摘要:入口 阅读全文
posted @ 2024-11-09 01:21 踩坑大王 阅读(22) 评论(0) 推荐(0) 编辑
摘要:https://item.jd.com/100036218692.html 以这个商品链接为例,分析详情图接口 抓包拿到接口 入参 出参 构建代码 headers = { 'cookie':"", 'accept': 'application/json, text/javascript, */*; 阅读全文
posted @ 2024-11-09 01:20 踩坑大王 阅读(104) 评论(0) 推荐(0) 编辑
摘要:项目介绍 本项目旨在利用高级搜索功能,爬取微博网页版的详细数据。而大多数爬虫以单线程为主,但单线程存在资源利用率低的不足,针对这以问题,本项目主要使用如下技术: (1)多线程+协程技术+Redis实现增量式爬虫。实现过程中存在两个技术难点:一是使用redis数据传输时开销频繁,服务器容易崩溃;二是多 阅读全文
posted @ 2024-05-15 01:42 踩坑大王 阅读(58) 评论(0) 推荐(0) 编辑
摘要:待补充 阅读全文
posted @ 2024-05-13 21:08 踩坑大王 阅读(130) 评论(0) 推荐(0) 编辑
摘要:待补充 阅读全文
posted @ 2024-05-13 21:05 踩坑大王 阅读(19) 评论(0) 推荐(0) 编辑
摘要:目录安装数据库安装Redis安装PostGreSQL实现步骤微博站点分析asyncio获取cookieaiohttp+redis构造待爬取URLpyppeteer构建爬虫执行爬虫性能优化thread构建线程redis Pipline爬取异常处理总结项目总结不足 安装数据库 安装Redis 该步骤实现 阅读全文
posted @ 2024-05-12 20:35 踩坑大王 阅读(46) 评论(0) 推荐(0) 编辑
摘要:目录使用selenium使用requests 使用selenium from selenium.webdriver import Chrome,ChromeOptions from selenium.webdriver.support.wait import WebDriverWait from s 阅读全文
posted @ 2024-05-07 14:17 踩坑大王 阅读(66) 评论(1) 推荐(0) 编辑
摘要:import requests, urllib, redis, pymongo, time, re, random, xlsxwriter, os, openpyxl, json, csv, pandas as pd from urllib import request from bs4 impor 阅读全文
posted @ 2024-04-05 23:37 踩坑大王 阅读(86) 评论(0) 推荐(0) 编辑
摘要:import requests,time,random from fake_useragent import UserAgent urls=open(r'E:\01pycharm project\网络爬虫技术\sjj1.txt',encoding='utf-8').read().split() i= 阅读全文
posted @ 2024-04-05 23:33 踩坑大王 阅读(19) 评论(0) 推荐(0) 编辑
摘要:目录使用selenium使用requests 使用selenium from selenium.webdriver import Chrome,ChromeOptions from selenium.webdriver.support.wait import WebDriverWait from s 阅读全文
posted @ 2024-04-05 23:02 踩坑大王 阅读(284) 评论(0) 推荐(0) 编辑
摘要:写法一: 编写两个爬虫程序文件:爬虫1将豆瓣一周口碑榜的电影url添加到redis中名为movie_url的列表中(注意避免多次运行导致重复的问题); 爬虫2从movie_url中读出网址,爬取每一部电影的导演、主演、类型、制片国家/地区、语言、上映日期、片长, 并将它们保存到redis的hash表 阅读全文
posted @ 2024-04-05 22:54 踩坑大王 阅读(61) 评论(0) 推荐(0) 编辑
摘要:#http://www.fz-bus.cn/index.asp #1)在MongoDB中创建一个数据库和一个集合。 #2)在程序执行过程中可输入线路名称查询公交线路, # 每查询到一条线路的信息后,查询MongoDB数据库中是否存在该线路。若存在,则不做任何操作,否则执行第3步。 #将线路名称、起点 阅读全文
posted @ 2024-04-05 22:49 踩坑大王 阅读(33) 评论(0) 推荐(0) 编辑
摘要:``` #编写程序,从丁香园获取国内近期疫情数据,按省份提取当前确诊数,# 确诊总数,疑似病例数,治愈数,死亡数,高危数等数据,保存到csv文件或excel文件中。import requestsimport xlsxwriterfrom fake_useragent import UserAgent 阅读全文
posted @ 2024-04-05 22:47 踩坑大王 阅读(54) 评论(0) 推荐(0) 编辑
摘要:抓取豆瓣读书Top250(https://book.douban.com/top250) 每本书的书名、作者、出版社、出版时间、价格、评分等数据, 将结果分别保存为csv文件和excel文件 import xlwt import xlsxwriter import re import request 阅读全文
posted @ 2024-04-05 22:45 踩坑大王 阅读(361) 评论(0) 推荐(0) 编辑
摘要:目录1)使用正则表达式2)使用bs4 1)使用正则表达式 #使用requests库和正则表达式抓取在https://www.kanunu8.com/book3/任选的一本电子书 import requests import re import os import time header = { 'u 阅读全文
posted @ 2024-04-05 22:43 踩坑大王 阅读(219) 评论(0) 推荐(0) 编辑
摘要:Error occurred during loading data. Trying to use cache server https://fake-useragent.herokuapp.com/browsers/0.1.11 Traceback (most recent call last): 阅读全文
posted @ 2024-04-05 21:56 踩坑大王 阅读(82) 评论(0) 推荐(0) 编辑
摘要:目录使用re爬取+为请求头,保存为csv使用re爬取2+不保存使用xpath+lxml.html+lxml.etree+不保存 使用re爬取+为请求头,保存为csv import requests import re import csv from fake_useragent import Use 阅读全文
posted @ 2024-04-05 21:50 踩坑大王 阅读(41) 评论(0) 推荐(0) 编辑

more_horiz
keyboard_arrow_up light_mode palette
选择主题
点击右上角即可分享
微信分享提示