理解爬虫原理

本次作业来源于:https://edu.cnblogs.com/campus/gzcc/GZCC-16SE1/homework/2881

1. 简单说明爬虫原理

    网络爬虫,即Web Spider,是一个很形象的名字。把互联网比喻成一个蜘蛛网,那么Spider就是在网上爬来爬去的蜘蛛。网络蜘蛛是通过网页的链接地址来寻找网页的。从网站某一个页面(通常是首页)开始,读取网页的内容,找到在网页中的其它链接地址,然后通过这些链接地址寻找下一个网页,这样一直循环下去,直到把这个网站所有的网页都抓取完为止。如果把整个互联网当成一个网站,那么网络蜘蛛就可以用这个原理把互联网上所有的网页都抓取下来。这样看来,网络爬虫就是一个爬行程序,一个抓取网页的程序。网络爬虫的基本操作是抓取网页。

2. 理解爬虫开发过程

1).简要说明浏览器工作原理;

       浏览器的主要功能是将用户选择的web资源呈现出来,它需要从服务器请求资源,并将其显示在浏览器窗口中,资源的格式通常是HTML,也包括PDF、image及其他格式。用户用URI来指定所请求资源的位置,在网络一章有更多讨论。

2).使用 requests 库抓取网站数据;

requests.get(url) 获取校园新闻首页html代码

复制代码
import requests
requests
url='http://news.gzcc.cn/html/2019/xiaoyuanxinwen_0320/11029.html'
res=requests.get(url)
type(res)
res.encoding='utf-8'
res.text
复制代码

3).了解网页

写一个简单的html文件,包含多个标签,类,id

复制代码
html_sample = ' \
<html> \
    <body> \
          <h1 id="title">Hello</h1> \
          <a href="#" class="link"> This is link1</a>\
          <a href="# link2" class="link" qao=123> This is link2</a>\
    </body> \
</html> '
复制代码

4).使用 Beautiful Soup 解析网页;

通过BeautifulSoup(html_sample,'html.parser')把上述html文件解析成DOM Tree

soupn=BeautifulSoup(res.text,'html.parser')
soupn

select(选择器)定位数据

#使用select找出含有h1标签的元素,返回list
header=soups.select('h1')
#使用select找出特定CSS属性的元素
t = soups.select('#title')
l = soups.select('.link')

找出含有特定标签的html元素

找出含有特定类名的html元素

找出含有特定id名的html元素

soups = BeautifulSoup(html,'html.parser')
a1 =soups.a
a = soups.select('a')
h = soups.select('h1')
t = soups.select('#title')

3.提取一篇校园新闻的标题、发布时间、发布单位、作者、点击次数、内容等信息

如url = 'http://news.gzcc.cn/html/2019/xiaoyuanxinwen_0320/11029.html'

要求发布时间为datetime类型,点击次数为数值型,其它是字符串类型。

 新闻的标题:

 发布时间

作者:

发布单位:

 

 点击次数:

内容:

 

posted @ 2019-04-01 08:42  梁琳  阅读(175)  评论(0编辑  收藏  举报