1.爬虫:
请求网站并提取数据的自动化程序
2.爬虫的基本流程
1.发起请求
通过HTTP库向目标站点发起请求,即发送一个Request,请求可以包含额外的headers等信息,等待服务器响应。
2.获取响应内容
如果服务器能正常响应,会得到一个Response,Response的内容便是所要获取的页面内容,类型有可能有HTML,Json字符串,二进制数据(如图片视频)等类型。
3.解析内容
得到的内容可能是HTML,可以用正则表达式、网页解析库进行解析。可能是Json,可以直接转化为Json对象解析,可能是二进制数据,可以做保存或者进一步的处理。
4.保存数据
保存形式多样,可以存为文本,也可以保存至数据库,或者保存特定格式的文件。
3.Request和Response
1.浏览器发送消息给该网址所在的服务器,这个过程叫做HTTP Request。
2.服务器收到浏览器发送的消息后,能够根据浏览器发送消息的内容,做相应处理,然后把消息回传给浏览器。这个过程叫做HTTP Response。
3.浏览器收到服务器的Response信息后,会对信息进行相应处理,然后展示。
4.Request的内容
1.请求方式:主要有GET、POST两种类型,另外还有HEAD、PUT、DELETE、OPTIONS等。
2.请求URL:URL全称统一资源定位符,如一个网页文档、一个图片、一个视频等都可以用URL唯一来确定。
3.请求头:包含请求时的头部信息,如User-Agent、Host、Cookies等信息。
4.请求体:请求时额外携带的数据如表单提交时的表单数据。
5.Response包含的内容
1.响应状态:有多种相应状态,如200代表成功、301跳转、404找不到页面、502服务器错误。
2.响应头:如内容类型、内容长度、服务器信息、设置Cookie等等。
3.响应体:最主要的部分,包含了请求资源的内容,如网页HTML、图片二进制数据等。
6.抓取数据类型
1.网页文本
例如HTML、Json格式文本等。
2.图片
获取到的是二进制文件,保存为图片格式。
3.视频
同为二进制文件,保存为视频格式即可。
4.其他
可以请求到的都能获取。
7.解析方式
1.直接处理
2.Json解析
3.正则表达式
4.BeautifulSoup
5.PyQuery
6.Xpath
8.js渲染
1.分析Ajax请求
2.Selenium驱动浏览器
3.Splash
4.其他库
9.保存数据
1.文本
2.关系型数据库
3.非关系型数据库
4二进制文件