Python 网络爬虫(图片采集脚本)

===============爬虫原理==================

通过Python访问网站,获取网站的HTML代码,通过正则表达式获取特定的img标签中src的图片地址。

之后再访问图片地址,并通过IO操作将图片保存到本地。

===============脚本代码==================

import urllib.request  # 网络访问模块
import random  # 随机数生成模块
import re  # 正则表达式模块
import os  # 目录结构处理模块

# 初始化配置参数
number = 10  # 图片收集数量
path = 'img/'  # 图片存放目录

# 文件操作
if not os.path.exists(path):
    os.makedirs(path)


# 图片保存
def save_img(url, path):
    message = None
    try:
        file = open(path + os.path.basename(url), 'wb')
        request = urllib.request.urlopen(url)
        file.write(request.read())
    except Exception as e:
        message = str(e)
    else:
        message = os.path.basename(url)
    finally:
        if not file.closed:
            file.close()
        return message


# 网络连接
http = 'http://zerospace.asika.tw/photo/'  # 目标网址
position = 290 + int((1000 - number) * random.random())
ids = range(position, position + number)
for id in ids:
    try:
        url = "%s%d.html" % (http, id)  # 后缀生成
        request = urllib.request.urlopen(url)
    except Exception as e:
        print(e)
        continue
    else:
        buffer = request.read()
        buffer = buffer.decode('utf8')
        pattern = 'class="content-img".+\s+.+src="(.+\.jpg)"'
        imgurl = re.findall(pattern, buffer)  # 过滤规则
        if len(imgurl) != 0:
            print(save_img(imgurl[0], path))
        else:
            continue
    pass

===============运行结果==================

posted @ 2016-09-29 05:17  woider  阅读(8283)  评论(0编辑  收藏  举报