【MOOC】【实例】—中国最好大学定向爬取
“中国最好大学定向爬取”实例
定向爬虫:仅对输入的URL进行爬取,不扩展爬取
三个模块:
1、 从网页上获取大学排名网页内容 getHTMLText()
2、 提取网页内容的信息到合适的数据结构中 fillUnivList()
3、 立用数据结构展示并输出结果 printUnivList()
两个要点:
1、requests-bs4进行定向爬虫
2、打印中的 中英文混排 中文字符的空格填充 chr(12288)
import requests from bs4 import BeautifulSoup import bs4 ## 爬取网页内容 def getHTMLText(url): try: r = requests.get(url,timeout=30) r.raise_for_status() r.encoding = r.apparent_encoding return r.text except: return '' ## 将网页内容存储到列表中 def fillUnivList(ulist,html): soup = BeautifulSoup(html,'html.parser') for tr in soup.find('tbody').children: ##查找页面中的‘tbody’标签,并遍历其孩子 if isinstance(tr,bs4.element.Tag): ##判断‘tr’是否为 bs4库中定义的‘Tag’类型 tds = tr('td') ## 查找 ‘td’ 标签 ulist.append([tds[0].string, tds[1].string, tds[3].string]) ## 打印列表 ## 中文对齐 中文字符的空格填充 chr(12288) def printUnivList(ulist,num): tplt = '{0:^10}\t{1:{3}^10}\t{2:^10}' ## {3}按 format 的第三个参数进行填充 print(tplt.format('排名','学校名称','总分',chr(12288))) for i in range(num): u = ulist[i] print(tplt.format(u[0],u[1],u[2],chr(12288))) def main(): uinfo = [] url = 'http://www.zuihaodaxue.com/zuihaodaxuepaiming2019.html' html = getHTMLText(url) fillUnivList(uinfo,html) printUnivList(uinfo,20) main()