【MOOC】【实例】—中国最好大学定向爬取

“中国最好大学定向爬取”实例

定向爬虫:仅对输入的URL进行爬取,不扩展爬取

 

 

三个模块:

1、 从网页上获取大学排名网页内容          getHTMLText()

2、 提取网页内容的信息到合适的数据结构中  fillUnivList()

3、 立用数据结构展示并输出结果            printUnivList()

 

两个要点:

1、requests-bs4进行定向爬虫

2、打印中的 中英文混排  中文字符的空格填充 chr(12288)

import requests
from bs4 import BeautifulSoup
import bs4

## 爬取网页内容
def getHTMLText(url):
    try:
        r = requests.get(url,timeout=30)
        r.raise_for_status()
        r.encoding = r.apparent_encoding
        return r.text
    except:
        return ''

## 将网页内容存储到列表中
def fillUnivList(ulist,html):
    soup = BeautifulSoup(html,'html.parser')
    for tr in soup.find('tbody').children: ##查找页面中的‘tbody’标签,并遍历其孩子
        if isinstance(tr,bs4.element.Tag): ##判断‘tr’是否为 bs4库中定义的‘Tag’类型
            tds = tr('td') ## 查找 ‘td’ 标签
            ulist.append([tds[0].string, tds[1].string, tds[3].string])


## 打印列表
## 中文对齐  中文字符的空格填充 chr(12288)
def printUnivList(ulist,num):
    tplt = '{0:^10}\t{1:{3}^10}\t{2:^10}' ## {3}按 format 的第三个参数进行填充
    print(tplt.format('排名','学校名称','总分',chr(12288)))
    for i in range(num):
        u = ulist[i]
        print(tplt.format(u[0],u[1],u[2],chr(12288)))


def main():
    uinfo = []
    url = 'http://www.zuihaodaxue.com/zuihaodaxuepaiming2019.html'
    html = getHTMLText(url)
    fillUnivList(uinfo,html)
    printUnivList(uinfo,20)

main()

  

posted @ 2020-02-20 15:11  kuluma  阅读(245)  评论(0编辑  收藏  举报