python学习之爬虫一

一、爬虫介绍

数据如何获取是重点

何谓爬虫:模拟浏览器向目标服务器发送请求,爬取自己需要的信息,并存入一个文件中。

(1)首先从模拟浏览器开始:

http协议:

请求url:

https://www.baidu.com/

请求方式:

GET

请求头:

Cookie:可能需要关注

User-Agent:需要关注,服务器就是通过此,来判断该段请求的来源是不是浏览器

Host:www.baidu.com(通过分析目标网站的通信流程是什么样的 )

爬虫的全过程:

1.发送请求(请求数据库)

2.获取响应数据(由服务器返回,不需要我们操作  )

3.解析并提取数据(解析库)

4.保存数据(储存库)MangoDB()

1.3.4是我们的

谷歌浏览器,任意访问网址,右击,点击检查,出现控制台

选择如下框起区域,此时再将鼠标移动至自己感兴趣位置,控制台中会出现整个网页的源码,找到地址

具体代码实现如下:

# # requests模块
# # pip3 install requests
# # pip3 install -i 清华源地址 模块名
# import requests
# response=requests.get(url='https://www.baidu.com/')
# response.encoding='utf-8'
# print(response)  # <Response[200]>
# # 返回值是以< >括起来的,说明返回的会是对象
# # 返回相应状态码
# print(response.status_code)
# # 返回响应文本
# print(response.text)
# # print(type(response.text))
# with open('baidu.html','w',encoding='utf-8')as f:
#     f.write(response.text)
import requests
# 因为视频和图片返回的都是而二进制即byte
res = requests.get('https://video.pearvideo.com/mp4/adshort/20190613/cont-1565846-14013215_adpkg-ad_hd.mp4')
print(res.content)
with open('视频.mp4','wb')as f:
    f.write(res.content)

未完待续。。。

 

posted @ 2019-06-13 19:51  lhhhha  阅读(185)  评论(0编辑  收藏  举报