python爬取各类文档方法归类汇总
摘自:https://www.jb51.net/article/136941.htm
HTML文档是互联网上的主要文档类型,但还存在如TXT、WORD、Excel、PDF、csv等多种类型的文档。网络爬虫不仅需要能够抓取HTML中的敏感信息,也需要有抓取其他类型文档的能力。下面简要记录一些个人已知的基于python3的抓取方法,以备查阅。
1.抓取TXT文档
在python3下,常用方法是使用urllib.request.urlopen方法直接获取。之后利用正则表达式等方式进行敏感词检索。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
|
### Reading TXT doc ### from urllib.request import urlopen from urllib.error import URLError,HTTPError import re try : except (URLError,HTTPError) as e: print ( "Errors:\n" ) print (e) #print(textPage.read()) text = str (textPage.read()) #下面方法用正则匹配含1805的句子 pattern = re. compile ( "\..*1805(\w|,|\s|-)*(\.)" ) #不完美,简单示例 match = pattern.search(text) if match is not None : print (match.group()) #下面方法不用正则。先用.将句集分片,之后就可遍历了。 ss = text.split( '.' ) key_words = "1805" words_list = [x.lower() for x in key_words.split()] for item in ss: if all ([word in item.lower() and True or False for word in words_list]): print (item) |
上面的方法是已知目标网页为txt文本时的抓取。事实上,在自动抓取网页时,必须考虑目标网页是否为纯文本,用何种编码等问题。
如果只是编码问题,可以简单使用print(textPage.read(),'utf-8')等python字符处理方法来解决,如果抓取的是某个HTML,最好先分析,例如:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
|
from urllib.request import urlopen from urllib.error import URLError,HTTPError from bs4 import BeautifulSoup try : except (URLError,HTTPError) as e: print (e) try : bsObj = BeautifulSoup(html, "html.parser" ) content = bsObj.find( "div" ,{ "id" : "mw-content-text" }).get_text() except AttributeError as e: print (e) meta = bsObj.find( "meta" ) #print(bsObj) if meta.attrs[ 'charset' ] = = 'UTF-8' : content = bytes(content, "UTF-8" ) print ( "-----------------UTF-8--------------" ) print (content.decode( "UTF-8" )) if meta.attrs[ 'charset' ] = = 'iso-8859-1' : content = bytes(content, "iso-8859-1" ) print ( "--------------iso-8859-1------------" ) print (content.decode( "iso-8859-1" )) |
2.抓取CSV文档
CSV文件是一种常见的数据存档文件,与TXT文档基本类似,但在内容组织上有一定格式,文件的首行为标题列,之后的文件中的每一行表示一个数据记录。这就像一个二维数据表或excel表格一样。 python3中包含一个csv解析库,可用于读写csv文件,但其读取目标一般要求是在本地,要读取远程网络上的csv文件需要用urllib.request.urlopen先获取。例如:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
|
#csv远程获取,内存加载读取 from urllib.request import urlopen import csv from io import StringIO #在内存中读写str,如果要操作二进制数据,就需要使用BytesIO try : data = urlopen( "http://pythonscraping.com/files/MontyPythonAlbums.csv" ).read().decode( "ascii" , "ignore" ) except (URLError,HTTPError) as e: print ( "Errors:\n" ) print (e) dataFile = StringIO(data) csvReader = csv.reader(dataFile) count = 0 for row in csvReader: if count < 10 : print (row) else : print ( "...\n..." ) break count + = 1 #将数据写入本地csv文件 with open ( "./localtmp.csv" , "wt" ,newline = ' ',encoding=' utf - 8 ') as localcsvfile: writer = csv.writer(localcsvfile) count = 0 try : for row in csvReader: if count < 10 : writer.writerow(row) else : break count + = 1 finally : localcsvfile.close() |
csv文档的标题行(首行)需要特殊处理,csv.DictReader可以很好的解决这个问题。DictReader将读取的行转换为python字典对象,而不是列表。标题行的各列名即为字典的键名。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
|
#csv.DictReader读取csv文件,可以有效处理标题行等问题 from urllib.request import urlopen import csv from io import StringIO #在内存中读写str,如果要操作二进制数据,就需要使用BytesIO try : data = urlopen( "http://pythonscraping.com/files/MontyPythonAlbums.csv" ).read().decode( "ascii" , "ignore" ) except (URLError,HTTPError) as e: print ( "Errors:\n" ) print (e) dataFile = StringIO(data) csvReader = csv.reader(dataFile) dictReader = csv.DictReader(dataFile) print (dictReader.fieldnames) count = 0 for row in dictReader: if count < 10 : print (row) else : print ( "...\n..." ) break count + = 1 |
3.抓取PDF文档
pdf文档的远程抓取与操作,可借助比较流行的pdfminer3k库来完成。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
|
#抓取并操作pdf #pdf READ operation from urllib.request import urlopen from pdfminer.pdfinterp import PDFResourceManager,process_pdf from pdfminer.converter import TextConverter from pdfminer.layout import LAParams from io import StringIO, open def readPDF(filename): resmgr = PDFResourceManager() #STEP 1 retstr = StringIO() #STEP 2 laparams = LAParams() #STEP 3 device = TextConverter(resmgr,retstr,laparams = laparams) #STEP 4 process_pdf(resmgr,device,filename) #STEP 5 device.close() #STEP 6 content = retstr.getvalue() retstr.close() return content try : except (URLError,HTTPError) as e: print ( "Errors:\n" ) print (e) outputString = readPDF(pdffile) #也可以读取由pdffile=open("../../readme.pdf")语句打开的本地文件。 print (outputString) pdffile.close() |
4.抓取WORD
老版word使用了二进制格式,后缀名为.doc,word2007后出现了与OPEN OFFICE类似的类XML格式文档,后缀名为.docx。python对word文档的支持不够,似乎没有完美解决方案。为读取docx内容,可以使用以下方法:
(1)利用urlopen抓取远程word docx文件;
(2)将其转换为内存字节流;
(3)解压缩(docx是压缩后文件);
(4)将解压后文件作为xml读取
(5)寻找xml中的标签(正文内容)并处理
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
|
#读取word docx文档内容 from zipfile import ZipFile from urllib.request import urlopen from io import BytesIO from bs4 import BeautifulSoup wordFile = BytesIO(wordFile) document = ZipFile(wordFile) # xml_content = document.read( "word/document.xml" ) #print(xml_content.decode("utf-8")) wordObj = BeautifulSoup(xml_content.decode( "utf-8" ), "lxml" ) textStrings = wordObj.findAll( "w:t" ) for textElem in textStrings: print (textElem.text) |
5.抓取EXCEL
6.抓取HTML源文档
7.抓取HTML表单数据
8.抓取Javascript数据
更多内容请参考专题《python爬取功能汇总》进行学习。
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持脚本之家。