章节三:BeautifulSoup
章节三:BeautifulSoup
上一关,我们学习了HTML基础知识,知道了HTML是一种用来描述网页的语言,又了解了HTML的基本结构。
认识了HTML中的常见标签和常见属性:
根据这些知识,我们成功修改了这个网页上原来所显示标题——“这个书苑不太冷”,改成了“蜘蛛侠大战网页”。
最后,还写了这样一段代码:即通过调用requests
库,获取到了网页源代码,并将它写入到本地:
# 调用requests模块
import requests
# 获取网页源代码,得到的res是response对象。
res = requests.get('https://localprod.pandateacher.com/python-manuscript/crawler-html/spider-men5.0.html')
# 检测请求是否正确响应
print(res.status_code)
# 新建一个名为book的html文档,你看到这里的文件没加路径,它会被保存在程序运行的当前目录下。
# 字符串需要以w读写。你在学习open()函数时接触过它。
file = open('book.html','w',encoding='utf-8')
# res.text是字符串格式,把它写入文件内。
file.write(res.text)
# 关闭文件
file.close()
今天这一关,如果用一句话来概括我们要学习的内容,那就是“品尝”一道美味的“浓汤” —— BeautifulSoup
模块。
BeautifulSoup
到底在爬虫中发挥着怎样的作用,能让我们单独拿出一个课程来学?一起来看看。
1. BeautifulSoup是什么
我们得先来回忆一下爬虫的四个步骤:
第1关的requests
库帮我们搞定了爬虫第0步——获取数据;第2关的HTML知识,是进行爬虫必不可少的背景知识,能辅助我们解析和提取数据。
接下来,解析和提取的部分就交给灵活又方便的网页解析库BeautifulSoup
。
那么,本关学习目标:学会使用BeautifulSoup
解析和提取网页中的数据。
【解析数据】是什么意思呢?
我们平时使用浏览器上网,浏览器会把服务器返回来的HTML源代码翻译为我们能看懂的样子,之后我们才能在网页上做各种操作。
而在爬虫中,也要使用能读懂html的工具,才能提取到想要的数据。
这就是解析数据。
【提取数据】是指把我们需要的数据从众多数据中挑选出来。
2. BeautifulSoup怎么用
BeautifulSoup
库目前已经进阶到第4版(Beautiful Soup 4
),由于它不是Python标准库,而是第三方库,需要单独安装它,不过,我们的学习系统已经安装好了。
如果你是在自己的电脑上运行,需要在终端输入一行代码运行:pip install BeautifulSoup4
。(Mac电脑需要输入pip3 install BeautifulSoup4
)
安装好之后,就可以使用了。
2.1 解析数据
BeautifulSoup
解析数据的用法很简单,请看下图:
在括号中,要输入两个参数,第0个参数是要被解析的文本,注意了,它必须必须必须是字符串。
括号中的第1个参数用来标识解析器,我们要用的是一个Python内置库:html.parser
。(它不是唯一的解析器,却是简单的那个)
我们看看具体的用法。仍然以网站这个书苑不太冷为例(url:https://localprod.pandateacher.com/python-manuscript/crawler-html/spider-men5.0.html),假设我们想爬取网页中的书籍类型、书名、链接、和书籍介绍。
根据之前所学的requests.get()
,我们可以先获取到一个Response对象,并确认自己获取成功:
# 调用requests库
import requests
# 获取网页源代码,得到的res是response对象
res = requests.get('https://localprod.pandateacher.com/python-manuscript/crawler-html/spider-men5.0.html')
# 检查请求是否正确响应
print(res.status_code)
# 把res的内容以字符串的形式返回
html = res.text
# 打印html
print(html)
上面的代码是第0关学过的内容,好,接下来就轮到BeautifulSoup登场解析数据了,请特别留意第2行和第6行新增的代码。
import requests
# 引入BS库,下面的bs4就是beautifulsoup4
from bs4 import BeautifulSoup
res = requests.get('https://localprod.pandateacher.com/python-manuscript/crawler-html/spider-men5.0.html')
# 把网页解析为BeautifulSoup对象
soup = BeautifulSoup(res.text,'html.parser')
第3行是引入BeautifulSoup
库。
第6行中的第1个参数,必须是字符串类型;括号中的第2个参数是解析器。
这就是解析数据的用法。
接下来,我们来打印看看soup
的数据类型,和soup
本身(第5行开始为新增代码)。
import requests
from bs4 import BeautifulSoup
res = requests.get('https://localprod.pandateacher.com/python-manuscript/crawler-html/spider-men5.0.html')
soup = BeautifulSoup(res.text,'html.parser')
# 查看soup的类型
print(type(soup))
# 打印soup
print(soup)
看看运行结果,soup
的数据类型是<class 'bs4.BeautifulSoup'>
,说明soup
是一个BeautifulSoup
对象。
下一行开始,就是我们打印的soup
,它是我们所请求网页的完整HTML源代码。我们所要提取的书名、链接、书籍内容这些数据都在这里面。
可是疑点来了:如果有非常细心的同学,也许会发现,打印soup
出来的源代码和我们之前使用response.text
打印出来的源代码是完全一样的。
也就是说,我们好不容易用BeautifulSoup
写了一些代码来解析数据,但解析出的结果,竟然和没解析之前一样。
你听我解释,事情是这样的:虽然response.text
和soup
打印出的内容表面上看长得一模一样,却有着不同的内心,它们属于不同的类:<class 'str'>
与<class 'bs4.BeautifulSoup'>
。前者是字符串,后者是已经被解析过的BeautifulSoup对象。之所以打印出来的是一样的文本,是因为BeautifulSoup
对象在直接打印它的时候会调用该对象内的str
方法,所以直接打印 bs 对象显示字符串是str的返回结果。
我们之后还会用BeautifulSoup
库来提取数据,如果这不是一个BeautifulSoup
对象,我们是没法调用相关的属性和方法的,所以,我们刚才写的代码是非常有用的,并不是重复劳动。
到这里,你就学会了使用BeautifulSoup
去解析数据:
from bs4 import BeautifulSoup
soup = BeautifulSoup(字符串,'html.parser')
完成了爬虫的第1步:解析数据,下面就是爬虫的第2步:提取数据。
2.2 提取数据
我们仍然使用BeautifulSoup
来提取数据。
这一步,又可以分为两部分知识:find()
与find_all()
,以及Tag对象
(标签对象)。
先看find()
与find_all()
。
find()
与find_all()
是BeautifulSoup
对象的两个方法,它们可以匹配html的标签和属性,把BeautifulSoup对象里符合要求的数据都提取出来。
它俩的用法是一样的,区别在于它们工作量
。
find()只提取首个满足要求的数据。find()方法将代码从上往下找,找到符合条件的第一个数据,不管后面还有没有满足条件的其他数据,停止寻找,立即返回。
而find_all()
顾名思义(find all:查找全部),提取出的是所有满足要求的数据。代码从上往下找,一直到代码的最后,把所有符合条件的数据揣好,一起打包返回。
看两个例子你就清楚了。以这个网页为例(URL: https://localprod.pandateacher.com/python-manuscript/crawler-html/spder-men0.0.html):
在网页的HTML代码中,有三个div
元素(<div></div>)
,用find()
可以提取出首个元素(只有一个),而find_all()
可以全部取出(三个)。
import requests
from bs4 import BeautifulSoup
url = 'https://localprod.pandateacher.com/python-manuscript/crawler-html/spder-men0.0.html'
res = requests.get (url)
print(res.status_code)
soup = BeautifulSoup(res.text,'html.parser')
# 使用find()方法提取首个<div>元素,并放到变量item里。
item = soup.find('div')
# 打印item的数据类型
print(type(item))
# 打印item
print(item)
看,运行结果正是首个div
元素吧!我们还打印了它的数据类型:<class 'bs4.element.Tag'>
,说明这是一个Tag
类标签对象。
再来试试find_all()
吧,它可以提取出网页中的全部div元素(3个),请看代码(第7行为新增代码),然后点击运行。
import requests
from bs4 import BeautifulSoup
url = 'https://localprod.pandateacher.com/python-manuscript/crawler-html/spder-men0.0.html'
res = requests.get (url)
print(res.status_code)
soup = BeautifulSoup(res.text,'html.parser')
# 用find_all()把所有符合要求的数据提取出来,并放在变量items里
items = soup.find_all('div')
# 打印items的数据类型
print(type(items))
# 打印items
print(items)
运行结果是那三个div
元素,它们一起组成了一个列表结构。打印items
的类型,显示的是<class 'bs4.element.ResultSet'>
,是一个ResultSet
类的对象。其实是Tag
对象以列表结构储存了起来,可以把它当做列表来处理。
下面,我想强调一下它们用法中的两个要点:
首先,请看举例中括号里的class_
,这里有一个下划线,是为了和python语法中的类 class
区分,避免程序冲突。当然,除了用class
属性去匹配,还可以使用其它属性,比如style
属性等。
其次,括号中的参数:标签和属性可以任选其一,也可以两个一起使用,这取决于我们要在网页中提取的内容。
如果只用其中一个参数就可以准确定位的话,就只用一个参数检索。如果需要标签和属性同时满足的情况下才能准确定位到我们想找的内容,那就两个参数一起使用。
再次总结一下find()
与find_all()
的用法:
这么多的内容,不太可能一下就记住,要想熟练使用,还需要大量练习。那么现在我们就来做个小练习吧,仍然以网站这个书苑不太冷为例:
打开网址,在网页上点击右键-检查,查看源代码,先看一看目标数据所对应的位置。
滑动一下网页,看见我们想要的每一本书的数据,分别存在了三个div
元素中,并且有相同的属性:class="books"
,这个共同点就是我们去提取数据的关键。
我们可以先把这三个div
元素提取出来,然后再进一步提取那些具体的书的类型、书名等等。
由于我们要找的不是一本书的数据,而是所有书的数据都要找,所以这时应该用find_all()
。
接下来要考虑的就是,要用什么参数去查找和定位,标签,还是属性。此时,可以用到开发者工具的搜索功能,点击Ctrl+F,Mac电脑用command+F。
在搜索栏中输入div
试试,搜索结果是:
一共找到了8个div
元素,但我们只想找到3个,如果只用<div>
来检索,就会把其它不需要的信息也提取出来。那有没有什么别的识别这3个div元素的方法呢?
有!还记得我们上节课提到的class
元素吗,不同元素之间复用同一套样式,只需要给标签设置同一个class
值就好了。而这三个设计书籍信息的div样式很显然是一样的,class
值都为book
。
我们用属性class="books"
搜索看看,果然,整个HTML源代码中,只有我们要找的三个元素的属性满足,因此,我们这次就可以只使用这个属性来提取。
(注:点击右键-显示网页源代码,在这个页面里去搜索会更加准确,在这里我们是点击右键-检查,在这个页面里去搜索的)
# 调用requests库
import requests
# 调用BeautifulSoup库
from bs4 import BeautifulSoup
# 返回一个Response对象,赋值给res
res = requests.get('https://localprod.pandateacher.com/python-manuscript/crawler-html/spider-men5.0.html')
# 把Response对象的内容以字符串的形式返回
html = res.text
# 把网页解析为BeautifulSoup对象
soup = BeautifulSoup( html,'html.parser')
# 通过匹配标签和属性提取我们想要的数据
items = soup.find_all(class_='books')
# 打印items
print(items)
# 打印items的数据类型
print(type(items))
现在,三本书的全部信息都被我们提取出来了。它的数据类型是<class 'bs4.element.ResultSet'>
, 前面说过可以把它当做列表list
来看待。
不过,列表并不是我们最终想要的东西,我们想要的是列表中的值,所以要想办法提取出列表中的每一个值。
用for
循环遍历列表,就可以把这三个div
元素取出来了。
请仔细阅读代码,然后点运行看看:
#调用requests库
import requests
# 调用BeautifulSoup库
from bs4 import BeautifulSoup
# 返回一个Response对象,赋值给res
res = requests.get('https://localprod.pandateacher.com/python-manuscript/crawler-html/spider-men5.0.html')
# 把Response对象的内容以字符串的形式返回
html= res.text
# 把网页解析为BeautifulSoup对象
soup = BeautifulSoup( html,'html.parser')
# 通过定位标签和属性提取我们想要的数据
items = soup.find_all(class_='books')
for item in items:
# 打印item
print('想找的数据都包含在这里了:\n',item)
程序运行很顺利,结果正是那三个div
元素。
其实到这里,find()
和find_all()
的用法讲了,练习也做了,但是,我们现在打印出来的东西还不是目标数据,里面含着HTML标签,所以下面,我们要进入到提取数据中的另一个知识点——Tag
对象。
咱们还以上面的代码为例,我们现在拿到的是一个个包含html标签的数据,还没达成目标。
这个时候,我们一般会选择用type()
函数查看一下数据类型,因为Python是一门面向对象编程的语言,只有知道是什么对象,才能调用相关的对象属性和方法。
好,来打印一下:
# 调用requests库
import requests
# 调用BeautifulSoup库
from bs4 import BeautifulSoup
# 返回一个response对象,赋值给res
res = requests.get('https://localprod.pandateacher.com/python-manuscript/crawler-html/spider-men5.0.html')
# 把res的内容以字符串的形式返回
html = res.text
# 把网页解析为BeautifulSoup对象
soup = BeautifulSoup( html,'html.parser')
# 通过定位标签和属性提取我们想要的数据
items = soup.find_all(class_='books')
for item in items:
# 打印item
print('想找的数据都包含在这里了:\n',item)
print(type(item))
我们看到它们的数据类型是<class 'bs4.element.Tag'>
,是Tag
对象,不知道你是否还记得,这与find()
提取出的数据类型是一样的。
好,既然知道了是Tag
对象,下一步,就是看看Tag
类对象的常用属性和方法了。
上图是Tag
对象的3种用法,咱们一个一个来讲。
首先,Tag
对象可以使用find()
与find_all()
来继续检索。
回到我们刚刚写的代码:即爬取这个书苑不太冷网站中每本书的类型、链接、标题和简介,我们刚刚拿到的分别是三本书的内容,即三个Tag
对象。现在,先把首个Tag
对象展示在下面,方便我们阅读:
<div class="books">
<h2><a name="type1">科幻小说</a></h2>
<a href="https://book.douban.com/subject/27077140/" class="title">《奇点遗民》</a>
<p class="info">本书精选收录了刘宇昆的科幻佳作共22篇。《奇点遗民》融入了科幻艺术吸引人的几大元素:数字化生命、影像化记忆、人工智能、外星访客……刘宇昆的独特之处在于,他写的不是科幻探险或英雄奇幻,而是数据时代里每个人的生活和情感变化。透过这本书,我们看到的不仅是未来还有当下。
</p>
<img class="img" src="./spider-men5.0_files/s29492583.jpg">
<br>
<br>
<hr size="1">
</div>
看第2行:书籍的类型在这里面;第3行:我们要取的链接和书名在里面;第4行:书籍的简介在里面。因为是只取首个数据,这次用find()就好。
先阅读下面的代码(从11行开始为新增代码):
# 调用requests库
import requests
# 调用BeautifulSoup库
from bs4 import BeautifulSoup
# 返回一个response对象,赋值给res
res = requests.get('https://localprod.pandateacher.com/python-manuscript/crawler-html/spider-men5.0.html')
# 把res的内容以字符串的形式返回
html = res.text
# 把网页解析为BeautifulSoup对象
soup = BeautifulSoup( html,'html.parser')
# 通过定位标签和属性提取我们想要的数据
items = soup.find_all(class_='books')
for item in items:
# 在列表中的每个元素里,匹配标签<h2>提取出数据
kind = item.find('h2')
# 在列表中的每个元素里,匹配属性class_='title'提取出数据
title = item.find(class_='title')
# 在列表中的每个元素里,匹配属性class_='info'提取出数据
brief = item.find(class_='info')
# 打印提取出的数据
print(kind,'\n',title,'\n',brief)
# 打印提取出的数据类型
print(type(kind),type(title),type(brief))
接下来,请你抄写上面的代码,然后点击运行:
除了我们拿到的数据之外;运行结果的数据类型,又是三个<class 'bs4.element.Tag'>
,用find()
提取出来的数据类型和刚才一样,还是Tag
对象。接下来要做的,就是把Tag
对象中的文本内容提出来。
这时,可以用到Tag
对象的另外两种属性——Tag.text
(获得标签中的值),和Tag['属性名']
(获得属性值)。
我们用Tag.text
提出Tag
对象中的文字,用Tag['href']
提取出URL。
只需要修改最后一行代码,我们想要的数据就都能成功提取出来了:
# 调用requests库
import requests
# 调用BeautifulSoup库
from bs4 import BeautifulSoup
# 返回一个response对象,赋值给res
res =requests.get('https://localprod.pandateacher.com/python-manuscript/crawler-html/spider-men5.0.html')
# 把res解析为字符串
html=res.text
# 把网页解析为BeautifulSoup对象
soup = BeautifulSoup( html,'html.parser')
# 通过匹配属性class='books'提取出我们想要的元素
items = soup.find_all(class_='books')
# 遍历列表items
for item in items:
# 在列表中的每个元素里,匹配标签<h2>提取出数据
kind = item.find('h2')
# 在列表中的每个元素里,匹配属性class_='title'提取出数据
title = item.find(class_='title')
# 在列表中的每个元素里,匹配属性class_='info'提取出数据
brief = item.find(class_='info')
# 打印书籍的类型、名字、链接和简介的文字
print(kind.text,'\n',title.text,'\n',title['href'],'\n',brief.text)
请你把最后一行代码抄写到下面的代码框中吧:
看看终端,拿出来啦(≧▽≦)/此处应该有掌声,到这里,我们终于成功解析、提取到了所有的数据。
这个层层检索的过程有点像是在超市买你想要的零食,比如一包糖果和一包薯片,首先要定位到超市的零食区,然后去糖果区找糖果,再去薯片区找薯片。
不过呢,每个网页都有自己的结构,我们写爬虫程序,还是得坚持从实际出发,具体问题具体分析哈。
我为你准备了一些习题,记得要去完成它们,你与爬虫大神的距离,还要靠一个一个练习去缩短。
走到这里,你已经学完了如何用BeautifulSoup
库的相关知识来解析和提取数据。面对这扑面而来的新的知识,我们有必要来梳理一下:
3. 对象的变化过程
其实说白了,从最开始用requests
库获取数据,到用BeautifulSoup
库来解析数据,再继续用BeautifulSoup
库提取数据,不断经历的是我们操作对象的类型转换。
请看下图:
上一关,我们的操作对象从URL
链接到了Response
对象。而这一关,我们的操作对象是这样的:Response对象
——字符串
——BS对象
。到这里,又产生了两条分岔:一条是BS对象
——Tag对象
;另一条是BS对象
——列表
——Tag对象
。
而操作对象的转变,则是借由一些步骤完成的,在图中是由阿拉伯数字标注的内容:从Response对象到字符串,是通过response.text完成的,我就不赘述了,图上标示得很清楚。
在此刻,我尤其想要强调的是,学到现在的你炒鸡棒的,b( ̄▽ ̄)d,而你记不全这些内容太太太正常了,因为编程从来都是一门强调实操实练的学科。
好,现在想请屏幕前的你深吸一口气,在椅子上一定坐稳了,千万不要晕倒,因为老师对你隐瞒了一件事。
其实刚刚那个图还不完整,完整版的图示是这样的:
Python是一门面向对象编程的过程,图中用英文字母的序号来展示的是每一种对象的方法和属性。比如bs
对象的方法有find()
和find_all()
。我也不赘述了。
这个流程其实对应的是爬虫四步的前3步:
这张图还挺重要的,可以作为你做练习、复习的一个关键参考信息。❀
不过梳理完之后,我们还是得来敲敲代码,光看不练可不行。所以,学完知识之后不只要去写作业,最好把本关的的代码全部再写一次,因为学习可是需要我们付出努力的噢。
4. 本关总结
又到了一个关卡快要结束的时刻了。快速复习一下:
我们今天学习了用bs库解析数据和提取数据。
解析数据的方法是用BeautifulSoup()
。
提取数据的方法是用find()
与find_all()
。
这一关中,除了学这些零碎的知识,最重要的是,我们要把所学的知识串成一条线:
这就是本关的全部内容了。
最后,我还想多说几句。在BeautifulSoup
中,不止find()
和find_all()
,还有select()
也可以达到相同目的。
其实,在bs的官方文档中,find()
与find_all()
的方法,其实不止标签和属性两种,还有这些:
5. 习题练习
5.1 习题一
1.练习介绍
你已经学习了用bs库解析数据和提取数据的方法,只要数据在HTML源代码中,你都可以拿到了。
2.要求:
爬取博客【人人都是蜘蛛侠】中,《未来已来(四)——Python学习进阶图谱》文章的默认评论页,并且打印。
3.目的:
练习获取网页源代码,然后使用BeautifulSoup解析提取数据。
实操爬虫的前三个步骤。
4.写代码~
复习了所有知识点,一切都准备就绪,那就开始写代码吧!
你需要爬取的是博客【人人都是蜘蛛侠】中,《未来已来(四)——Python学习进阶图谱》文章的默认评论页,并且打印。
文章URL:https://wordpress-edu-3autumn.localprod.oc.forchange.cn/all-about-the-future_04/
import requests # 调用requests库
from bs4 import BeautifulSoup # 调用BeautifulSoup库
url_destnation = 'https://wordpress-edu-3autumn.localprod.oc.forchange.cn/all-about-the-future_04/'
# 把网址复制给变量destnation_url
res_comment = requests.get (url_destnation) # 返回一个response对象,赋值给destnation
bs_comment = BeautifulSoup(res_comment.text,'html.parser') # 把网页解析为BeautifulSoup对象
list_comments = bs_comment.find_all('div',class_= 'comment-content') #通过匹配属性提取出我们想要的元素
for tag_comment in list_comments: # 遍历列表,取出列表中的每一个值
print(tag_comment.text) # 打印评论的文本
5.2 习题二
1.练习介绍
这个练习中包含两个小练习。
2.要求:
爬取网上书店Books to Scrape中的一些信息,并且打印提取到的信息。
3.目的:
练习获取网页源代码,然后使用BeautifulSoup解析提取数据。
强化训练find与find_all的用法。
强化训练Tag的方法和属性。
4.第一个小练习
题目要求:你需要爬取的是网上书店Books to Scrape中所有书的分类类型,并且将它们打印出来。
它的位置就在网页的左侧,如:Travel,Mystery,Historical Fiction…等。
网页URL:http://books.toscrape.com/
import requests
from bs4 import BeautifulSoup
res_bookstore = requests.get('http://books.toscrape.com/')
bs_bookstore = BeautifulSoup(res_bookstore.text,'html.parser')
list_kind = bs_bookstore.find('ul',class_='nav').find('ul').find_all('li') # 这里需要提取好几层
for tag_kind in list_kind:
tag_name = tag_kind.find('a')
print(tag_name.text.strip()) # 去除特殊字符串,比如空格,\n,\t等等
5.第二个小练习
题目要求:你需要爬取的是网上书店Books to ScrapeTravel这类书中,所有书的书名、评分、价格三种信息,并且打印提取到的信息。
网页URL:http://books.toscrape.com/catalogue/category/books/travel_2/index.html
import requests
from bs4 import BeautifulSoup
res_bookstore = requests.get('http://books.toscrape.com/catalogue/category/books/travel_2/index.html')
bs_bookstore = BeautifulSoup(res_bookstore.text,'html.parser')
list_books = bs_bookstore.find_all(class_='product_pod')
for tag_books in list_books:
tag_name = tag_books.find('h3').find('a') # 找到a标签需要提取两次
list_star = tag_books.find('p',class_="star-rating")
# 这个p标签的class属性有两种:"star-rating",以及具体的几星比如"Two"。我们选择所有书都有的class属性:"star-rating"
tag_price = tag_books.find('p',class_="price_color") # 价格比较好找,根据属性提取,或者标签与属性一起都可以
print(tag_name['title']) # 这里用到了tag['属性名']提取属性值
print('star-rating:',list_star['class'][1])
# 同样是用属性名提取属性值
# 用list_star['class']提取出来之后是一个由
# 两个值组成的列表,如:"['star-rating', 'Two']",我们最终要提取的是这个列表的第1个值:"Two"。
# 为什么是列表呢?因为这里的class属性有两个值。其实,在这个过程中,我们是使用class属性的第一个值提取出了第二个值。
print('Price:',tag_price.text, end='\n'+'------'+'\n') # 打印的时候,我加上了换行,为了让数据更加清晰地分隔开,当然你也可以不加。
5.3 习题三
1.要求:
爬取博客【人人都是蜘蛛侠】首页的四篇文章标题、发布时间、文章链接,并且在终端打印提取到的信息。
2.目的:
练习获取网页源代码,然后使用BeautifulSoup解析提取数据。
强化训练find与find_all的用法。
强化训练Tag的方法和属性。
3.题目要求:你需要爬取的是博客人人都是蜘蛛侠,首页的四篇文章信息,并且打印提取到的信息。
提取每篇文章的:
文章标题
发布时间
文章链接
网页URL:https://wordpress-edu-3autumn.localprod.oc.forchange.cn/
import requests
from bs4 import BeautifulSoup
url_destnation = 'https://wordpress-edu-3autumn.localprod.oc.forchange.cn/'
res_destnation = requests.get (url_destnation)
print(res_destnation.status_code) # 打印响应码
bs_articles = BeautifulSoup(res_destnation.text,'html.parser')
list_articles = bs_articles.find_all('header', class_ = "entry-header") # 首先找到每篇文章所在的相同的元素
for tag_article in list_articles: # 遍历列表
tag_title = tag_article.find('h2',class_ = "entry-title") # 找文章标题
tag_url = tag_article.find('a',rel = "bookmark") # 找文章链接
tag_date = tag_article.find('time',class_="entry-date published") # 找文章发布时间
print(tag_title.text,'发布于:',tag_date.text) # 打印文章标题与发布时间
print(tag_url['href']) # 换行打印文章链接,需要使用属性名提取属性值