python+beautifulsoup爬取华为应用市场的应用信息
今天老师课上突然坐我旁边神秘地给我布置了一个任务:帮他把华为应用市场中的应用按类别选择100多个应用,把应用名、类别、url、下载次数放到excel中
((;¬_¬)难道是我今天上课迟到的惩罚?)
大概是图里的这些信息
答应下来以后,想想Ctrl+C Ctrl+V这么多信息还是有点麻烦的,回去的路上想到这事儿可以写个爬虫解决_(・ω・」 ∠)_
F12后可以看到相应标签的class等属性,不过下载次数直接就是个span标签,所以我用的text正则匹配
代码如下:(..•˘_˘•..)
import xlsxwriter from bs4 import BeautifulSoup import re from urllib import request #把应用名、类别、url、下载次数写入excel,因为只需要打开一次文件,所以把file和sheet定义为全局变量 def write_excel(name, type_name, url, download): # 全局变量row代表行号 0-4代表列数 global row sheet.write(row, 0, row) sheet.write(row, 1, name) sheet.write(row, 2, type_name) sheet.write(row, 3, url) sheet.write(row, 4, download) row += 1 def get_list(url): # 请求url req = request.Request(url) # 设置请求头 req.add_header("User-Agent", "Mozilla/5.0 (X11; Ubuntu; Linux x86_64; rv:57.0) Gecko/20100101 Firefox/57.0") # 得到响应对象 response = request.urlopen(req) # 得到Beautiful对象 soup = BeautifulSoup(response, "html.parser") # 找到第一个class为key-select txt-sml的标签 type_name = soup.find(attrs={"class": "key-select txt-sml"}) # 找到所有应用名title所在的标签 title_divs = soup.find_all(attrs={"class": "title"}) for title_div in title_divs: if title_div.a is not None: name = title_div.a.text # a['href']得到a的herf属性内容 url = "http://app.hicloud.com" + title_div.a['href'] # string[3:]截取从第三个字符开始到末尾 download = title_div.parent.find(text=re.compile("下载:"))[3:] write_excel(name, type_name.text, url, download) #全局变量:row用来定义行数,方便写入excel行数一直累加,file和sheet因为创建一次就可以 row = 1 # 新建一个excel文件 file = xlsxwriter.Workbook('applist.xlsx') # 新建一个sheet sheet = file.add_worksheet() if __name__ == '__main__': #暂时列出两个类型 url_1 = "http://app.hicloud.com/soft/list_23" url_2 = "http://app.hicloud.com/soft/list_24" get_list(url_1) get_list(url_2) file.close()
实现效果部分截图如下:ヾ(*´▽‘*)ノ