Python爬虫案例

今天用requests爬取英雄联盟官网所有英雄图片,并以英雄分类保存。

一、网页分析

  1. 首先打开网站找到英雄页面,然后查看网页源码分析页面,这里就以第一个英雄 “ 黑暗之女 ” 为例,点击可以看到他的名字和头像的图片链接都在id = "jSearchHeroDiv" 的ul节点下面的li节点中,由此看出一个英雄就是一个li节点。
    列表

  2. 可以看到,网页源代码中没有资源,通过请求皮肤站页面发现并没有出来结果。由此推断出,该页面内容是通过js加载出来的,打开Network选项卡,筛选JS请求,然后发现有一个hero_list.js,点到Preview选项卡,可以看到这里面存放着英雄信息,然后点进headers选项卡得知他的url为https://game.gtimg.cn/images/lol/act/img/js/heroList/hero\_list.js
    在这里插入图片描述

  3. 接着,我们点击第一个英雄,可以发现,当网页加载完成时,在开发者工具的Network选项中出现了一个1.js的文件,之后点击他的header,发现url为https://game.gtimg.cn/images/lol/act/img/js/hero/1.js
    在这里插入图片描述

  4. 我们点击它,再点击Preview选项,点击查看,发现里面是这个英雄以及皮肤的详细信息,这些信息就是我们所需要的了。
    在这里插入图片描述

  5. 最后通过分析可以得知name就是皮肤的名称,mainImg就是我们想要的皮肤图片,只要得到这些关键信息就可以制作爬虫了
    皮肤

二、获取英雄数量

进入英雄列表页,打开Network选项卡,筛选JS请求,然后发现有一个hero_list.js,这里存放在所有英雄,点到后查看headers选项卡得知他的url为https://game.gtimg.cn/images/lol/act/img/js/heroList/hero\_list.js,这样就可以得到英雄数量了。

r = requests.get(hero_url)
hero_json = r.json()
hero_json = hero_json['hero']
print(len(hero_json)) 

三、获取英雄名(创建目录)

点击英雄详情页面,查找JS文件(方法同上),可以得到他的url,但是我们要做的是爬取所有英雄的皮肤图片,所有我们看一下能不能找到什么规律,我们再点击第二个英雄查看一下

https://game.gtimg.cn/images/lol/act/img/js/hero/1.js
https://game.gtimg.cn/images/lol/act/img/js/hero/2.js

通过观察可以看到网页链接基本相同,只有 .js 前面的数字不一样,这里的数字就是英雄的编号,所以只要使这里的数字发生变化就能得到对应英雄的信息。从json里我们可以得到英雄名称,皮肤名称,图片地址等信息,这时我们就可以创建对应英雄的文件夹了。我们来看代码实现

def get_info(base_url):
    url = base_url + str(i) + '.js'
    r = requests.get(url)
    info = r.json()
    hero = info.get('hero').get('name') #英雄名称
    skins = info.get('skins')
    path = file_path + '/' + hero
    if not os.path.exists(path):
        os.mkdir(path) 

四、获取皮肤名称与地址

获取皮肤名称与地址的方法与上面相同,所以不做太多介绍,这里需要注意的是有的皮肤url为空,这就需要在遍历的时候注意,遇到空url就跳过,然后访问图片url,并以二进制写入。

def get_skin(path, skins):
    for skin in skins:
        skin_name = skin.get('name')
        skin_url = skin.get('mainImg')
        if skin_url == '':
            continue
        img = requests.get(skin_url, headers=headers)
        if not os.path.exists(path + '/' + skin_name + '.jpg'):
            with open(path + '/' + skin_name + '.jpg', 'wb')as f:
                f.write(img.content) 

五、执行主程序

加入了计时以查看程序所用时长

if __name__ == '__main__':
    r = requests.get(hero_url)
    hero_json = r.json()
    hero_json = hero_json['hero'] # 获取英雄数量
    print(len(hero_json))
    for i in range(1, len(hero_json)):
        get_info(base_url)
    print('用时{:.3f}s'.format(start - perf_counter())) 

以上就是对英雄联盟全站所有皮肤图片的抓取过程,下面展示了前20个英雄的采集情况。

成果

完整代码:

import json
import requests
import os
from time import perf_counter

headers = {
    'user - agent':
        'Mozilla / 5.0(Windows NT 10.0;Win64;x64) AppleWebKit / 537.36(KHTML, likeGecko) Chrome / 84.0.4147.89Safari / 537.36'
}
hero_url = 'https://game.gtimg.cn/images/lol/act/img/js/heroList/hero_list.js'
base_url = 'https://game.gtimg.cn/images/lol/act/img/js/hero/'
file_path = 'E:\python\project\LOL英雄皮肤\image'

# 获取英雄名并创建文件夹
def get_info(base_url):
    url = base_url + str(i) + '.js'
    r = requests.get(url)
    info = r.json()
    hero = info.get('hero').get('name')
    skins = info.get('skins')
    path = file_path + '/' + hero
    if not os.path.exists(path):
        os.mkdir(path)
    get_skin(path, skins)
    print(hero + ' —— ok')

# 获取皮肤并保存
def get_skin(path, skins):
    for skin in skins:
        skin_name = skin.get('name')
        skin_url = skin.get('mainImg')
        if skin_url == '':
            continue
        img = requests.get(skin_url, headers=headers)
        if not os.path.exists(path + '/' + skin_name + '.jpg'):
            with open(path + '/' + skin_name + '.jpg', 'wb')as f:
                f.write(img.content)

if __name__ == '__main__':
    r = requests.get(hero_url)
    hero_json = r.json()
    hero_json = hero_json['hero'] # 获取英雄数量
    for i in range(1, len(hero_json)):
        get_info(base_url)
    print('采集结束')

如有错误,欢迎私信纠正,谢谢支持!

posted @ 2022-11-16 18:06  杨业壮  阅读(122)  评论(0编辑  收藏  举报