爬虫详解

Python爬虫基础

一,爬虫总览

1 介绍爬虫
2 urilib3(内置,不好用),requests--模拟发送http请求
3 Beautifulsoup解析,xpth解析
4 selenium模块,操作浏览器
5 Mongodb
6 反爬:代理池,cookie池,请求头中:user-agent,refer,js逆向
7 爬虫框架scrapy,爬虫界的django
8 scrapy-redis分布式爬虫
9 模拟登陆网站
10 爬取视频,爬肯德基门店地址,爬红楼梦书
11 验证码破解(打码平台:超级鹰)
12 破解12306
13 抓包工具的使用(fiddler,charls)
14 安卓app的爬取,逆向

1.1 爬虫介绍

1 爬虫:网络蜘蛛
2 爬虫本质:模拟浏览器发送请求(requests,selenium)->下载网页代码->只提取有用的数据(bs4,xpath,re)->存放于数据库或文件中(文件,excel,mysql,redis,mongodb)
3 发送请求:请求地址(浏览器调试,抓包工具),请求头(难),请求体(难),请求方法
4 拿到响应:拿到响应体(json格式,xml格式,html格式(bs4,xpath),加密的未知格式(需要解密))
5 入库:Mongodb(json格式数据)
6 性能高一些(多线程,多进程,协程)
7 scrapy框架处理了性能

1.2 python 内置爬虫模块

对于一些简单的爬虫,python(基于python3)有更好的第三方库来实现它,且容易上手。

Python标准库–logging模块
logging模块能够代替print函数的功能,将标准输出到日志文件保存起来,利用loggin模块可以部分替代debug
re模块
正则表达式
sys模块
系统相关模块

二 requests模块使用

2.1 发送get/post请求

请求头:

模拟网站发送get请求,一般在请求头添加一些参数来使模拟的请求看起来更像一些

  1. 'user-agent': 该参数记录了发送请求的系统和浏览器信息,一般网站都会检查例如:

'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/84.0.4147.105 Safari/537.36',

  1. 'referer': 该参数是为了防止盗用图片的,假如用一个网站所有的图片都是一个请求连接,该连接指向其他的服务器,这就是图片盗链,这个参数一般是同一个网站的地址.

如:'https://www.mzitu.com/225078/2'

  1. cookies 由于这个参数经常使用所以用cookies={'key':'value'}直接传给requests
import requests
res=requests.get('http://127.0.0.1:8000/index/',headers=header,cookies={'key':'asdfasdf'})


自动携带cookie
import requests
session=requests.session()    #第一次登陆后每次请求都会自动携带cookie
res=session.post('http://127.0.0.1:8000/index/')  # 假设这个请求登录了
res1=session.get('http://127.0.0.1:8000/order/')  # 现在不需要手动带cookie,session会帮咱处理

这些信息通常以键值对的方式放入请求头中:

header = {
     'user-agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/84.0.4147.105 Safari/537.36',
     'referer': 'https://www.mzitu.com/225078/2'
 }
res = requests.get('https://www.mzitu.com/', headers=header)

print(res.text)   #文本内容
print(res.content)  # 二进制内容

#将获取的内容写入文件
with open('a.jpg', 'wb')as f:
     for line in res1.iter_content():
         f.write(line)

携带参数:

携带参数的方式有两种,1:使用模块编译拼在路径后面,2:以params{}传参数

1,拼在路径后面
from urllib.parse import urlencode,unquote
print(urlencode('美女')) 编码
print(unquote('%E7%BE%8E%E5%A5%B3')) 解码
'https://www.baidu.com/s?wd=%E7%BE%8E%E5%A5%B3'

2,以params{}传参数 搜索条件简写wd
res=requests.get('https://www.baidu.com/s',headers=header,params={'wd':'美女'})

POST请求体的参数:

# 发送post请求,携带数据(urlencoded和json)放在data中
res=requests.post('http://127.0.0.1:8000/index/',data={'name':'lqz'})
print(res.text)

res=requests.post('http://127.0.0.1:8000/index/',json={'age':1,},)
print(res.text)

2.2 Response对象

respone=requests.post('http://127.0.0.1:8000/index/',data={'name':'lqz'})


print(respone.text)  # 响应的文本
print(respone.content)  # 响应体的二进制

print(respone.status_code)  # 响应状态码
print(respone.headers)    # 响应头
print(respone.cookies)   # cookie
print(respone.cookies.get_dict()) #  把cookie转成字典
print(respone.cookies.items())  # 取出cookie的key和value

print(respone.url)        # 请求的url
print(respone.history)   #[]放重定向之前的地址

print(respone.encoding)  # 响应的编码方式

respone.iter_content()  # 图片,视频,大文件,一点一点循环取出来
for line in respone.iter_content():
     f.write(line)

2.3 重要方法

乱码问题的解决

res=requests.get('http://www.autohome.com/news')
#  一旦打印出来出现乱码问题
#  方式一手动指定编码
res.encoding='gb2312'
#  方式二自动获取编码格式编码
res.encoding=res.apparent_encoding
print(res.text)

解析json

respone=requests.post('http://127.0.0.1:8000/index/',data={'name':'lqz'})

print(type(respone.json()))  # 将json格式数据解析为字典

高级用法之ssl

import requests
 respone=requests.get('https://www.12306.cn',verify=False) #不验证证书,
 print(respone.status_code)

使用代理

# 代理池:列表放了一堆代理ip,每次随机取一个,再发请求就不会封ip了
# 高匿和透明代理?如果使用高匿代理,后端无论如何拿不到你的ip,使用透明,后端能够拿到你的ip
# 后端如何拿到透明代理的ip,  后端:X-Forwarded-For
 respone=requests.get('https://www.baidu.com/',proxies={'http':'27.46.20.226:8888',})
 print(respone.text)

超时设置

import requests
respone=requests.get('https://www.baidu.com',
                     timeout=0.0001)

异常处理

import requests
from requests.exceptions import * #可以查看requests.exceptions获取异常类型

 try:
    r=requests.get('http://www.baidu.com',timeout=0.00001)
 except ReadTimeout:
     print('===:')
 except Exception as e:
     print(e)

上传文件

# 爬虫一般不会使用该功能,该功能常被一些SDK使用

res=requests.post('http://127.0.0.1:8000/index/',files={'myfile':open('a.jpg','rb')})
 print(res.text)

2.4 爬取视频实战

import requests
import re

header = {
    'user-agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/84.0.4147.89 Safari/537.36',
    'referer': 'https://www.pearvideo.com/',

}

response1 = requests.get('https://www.pearvideo.com/category_loading.jsp?reqType=5&categoryId=8&start=0',headers=header,)
# print(response1.text)
re_video = '<a href="(.*?)" class="vervideo-lilink actplay">'
video_url = re.findall(re_video,response1.text)
# print(video_url)

for i in video_url:
    url = 'https://www.pearvideo.com/'+i
    response2 = requests.get(url)
    re_mp4 = 'hdflvUrl="",sdflvUrl="",hdUrl="",sdUrl="",ldUrl="",srcUrl="(.*?)",'
    mp4_url = re.findall(re_mp4,response2.text)[0]

    name = mp4_url.rsplit('/',1)[-1]
    print(name)
    video_content = requests.get(mp4_url)
    print(video_content)
    for line in video_content.iter_content():
        with open(name,'wb') as f1:
            f1.write(line)
    print('ok')
posted @ 2020-08-03 09:14  Franciszw  阅读(294)  评论(0编辑  收藏  举报