python多线程:控制线程数量

背景

前段时间学习了python的多线程爬虫,当时爬取一个图片网站,开启多线程后,并没有限制线程的数量,也就是说,如果下载1000张图片,会一次性开启1000个子线程同时进行下载

 

现在希望控制线程数量:例如每次只下载5张,当下载完成后再下载另外5张,直至全部完成

查了一些资料,发现在python中,threading 模块有提供 Semaphore类 和 BoundedSemaphore类来限制线程数

详细说明可以看看下面几篇文章,写的很棒:

https://docs.python.org/3.5/library/threading.html?highlight=threading#semaphore-objects

https://www.liujiangblog.com/course/python/79

https://my.oschina.net/u/3524921/blog/920303

https://zhuanlan.zhihu.com/p/34159519

 

官网给出例子如下:

信号量通常用于保护容量有限的资源,例如数据库服务器。在资源大小固定的任何情况下,都应使用有界信号量。在产生任何工作线程之前,您的主线程将初始化信号量:

maxconnections = 5
# ...
pool_sema = BoundedSemaphore(value=maxconnections)

产生后,工作线程在需要连接到服务器时会调用信号量的获取和释放方法:

with pool_sema:
    conn = connectdb()
    try:
        # ... use connection ...
    finally:
        conn.close()

改造之前的多线程爬虫

首先贴出原来的代码

# -*- coding:utf-8 -*-
import requests
from requests.exceptions import RequestException
import os, time
import re
from lxml import etree
import threading

lock = threading.Lock()
def get_html(url):
    """
    定义一个方法,用于获取一个url页面的响应内容
    :param url: 要访问的url
    :return: 响应内容
    """
    response = requests.get(url, timeout=10)
    # print(response.status_code)
    try:
        if response.status_code == 200:

            # print(response.text)
            return response.text
        else:
             return None
    except RequestException:
        print("请求失败")
        # return None


def parse_html(html_text):
    """
    定义一个方法,用于解析页面内容,提取图片url
    :param html_text:
    :return:一个页面的图片url集合
    """
    html = etree.HTML(html_text)

    if len(html) > 0:
        img_src = html.xpath("//img[@class='photothumb lazy']/@data-original")  # 元素提取方法
        # print(img_src)
        return img_src

    else:
        print("解析页面元素失败")

def get_image_pages(url):
    """
    获取所查询图片结果的所有页码
    :param url: 查询图片url
    :return: 总页码数
    """

    html_text = get_html(url)  # 获取搜索url响应内容
    # print(html_text)
    if html_text is not None:
        html = etree.HTML(html_text)  # 生成XPath解析对象
        last_page = html.xpath("//div[@class='pages']//a[last()]/@href")  # 提取最后一页所在href链接
        print(last_page)
        if last_page:
            max_page = re.compile(r'(\d+)', re.S).search(last_page[0]).group()  # 使用正则表达式提取链接中的页码数字
            print(max_page)
            print(type(max_page))
            return int(max_page)  # 将字符串页码转为整数并返回
        else:
            print("暂无数据")
            return None
    else:
        print("查询结果失败")


def get_all_image_url(page_number):
    """
    获取所有图片的下载url
    :param page_number: 爬取页码
    :return: 所有图片url的集合
    """

    base_url = 'https://imgbin.com/free-png/naruto/'
    image_urls = []

    x = 1  # 定义一个标识,用于给每个图片url编号,从1递增
    for i in range(1, page_number):
        url = base_url + str(i)  # 根据页码遍历请求url
        try:
            html = get_html(url)  # 解析每个页面的内容
            if html:
                data = parse_html(html)  # 提取页面中的图片url
                # print(data)
                # time.sleep(3)
                if data:
                    for j in data:
                        image_urls.append({
                            'name': x,
                            'value': j
                        })
                        x += 1  # 每提取一个图片url,标识x增加1
        except RequestException as f:
            print("遇到错误:", f)
            continue
    # print(image_urls)
    return image_urls

def get_image_content(url):
    """请求图片url,返回二进制内容"""
    # print("正在下载", url)
    try:
        r = requests.get(url, timeout=15)
        if r.status_code == 200:
            return r.content
        return None
    except RequestException:
        return None

def main(url, image_name):
    """
    主函数:实现下载图片功能
    :param url: 图片url
    :param image_name: 图片名称
    :return:
    """
    semaphore.acquire()  # 加锁,限制线程数
    print('当前子线程: {}'.format(threading.current_thread().name))
    save_path = os.path.dirname(os.path.abspath('.')) + '/pics/'
    try:
        file_path = '{0}/{1}.jpg'.format(save_path, image_name)
        if not os.path.exists(file_path):  # 判断是否存在文件,不存在则爬取
            with open(file_path, 'wb') as f:
                f.write(get_image_content(url))
                f.close()

                print('第{}个文件保存成功'.format(image_name))

        else:
            print("第{}个文件已存在".format(image_name))

        semaphore.release()  # 解锁imgbin-多线程-重写run方法.py

    except FileNotFoundError as f:
        print("第{}个文件下载时遇到错误,url为:{}:".format(image_name, url))
        print("报错:", f)
        raise

    except TypeError as e:
        print("第{}个文件下载时遇到错误,url为:{}:".format(image_name, url))
        print("报错:", e)

class MyThread(threading.Thread):
    """继承Thread类重写run方法创建新进程"""
    def __init__(self, func, args):
        """

        :param func: run方法中要调用的函数名
        :param args: func函数所需的参数
        """
        threading.Thread.__init__(self)
        self.func = func
        self.args = args

    def run(self):
        print('当前子线程: {}'.format(threading.current_thread().name))
        self.func(self.args[0], self.args[1])
        # 调用func函数
        # 因为这里的func函数其实是上述的main()函数,它需要2个参数;args传入的是个参数元组,拆解开来传入


if __name__ == '__main__':
    start = time.time()
    print('这是主线程:{}'.format(threading.current_thread().name))

    urls = get_all_image_url(5)  # 获取所有图片url列表
    thread_list = []  # 定义一个列表,向里面追加线程
    semaphore = threading.BoundedSemaphore(5) # 或使用Semaphore方法
    for t in urls:
        # print(i)

        m = MyThread(main, (t["value"], t["name"]))  # 调用MyThread类,得到一个实例

        thread_list.append(m)

    for m in thread_list:

        m.start()  # 调用start()方法,开始执行

    for m in thread_list:
        m.join()  # 子线程调用join()方法,使主线程等待子线程运行完毕之后才退出


    end = time.time()
    print(end-start)
    # get_image_pages("https://imgbin.com/free-png/Naruto")
View Code

 

将代码进行改造

1、下面的第8、9行表示调用 threading 的 BoundedSemaphore类,初始化信号量为5,把结果赋给变量 pool_sema

 1 if __name__ == '__main__':
 2     start = time.time()
 3     print('这是主线程:{}'.format(threading.current_thread().name))
 4 
 5     urls = get_all_image_url(5)  # 获取所有图片url列表
 6     thread_list = []  # 定义一个列表,向里面追加线程
 7 
 8     max_connections = 5  # 定义最大线程数
 9     pool_sema = threading.BoundedSemaphore(max_connections) # 或使用Semaphore方法
10     for t in urls:
11         # print(i)
12 
13         m = MyThread(main, (t["value"], t["name"]))  # 调用MyThread类,得到一个实例
14 
15         thread_list.append(m)
16 
17     for m in thread_list:
18 
19         m.start()  # 调用start()方法,开始执行
20 
21     for m in thread_list:
22         m.join()  # 子线程调用join()方法,使主线程等待子线程运行完毕之后才退出
23 
24 
25     end = time.time()
26     print(end-start)

2、修改main()函数

(1)方法一:通过with语句实现,第9行添加 with pool_sema

使用 with 语句来获得一个锁、条件变量或信号量,相当于调用 acquire();离开 with 块后,会自动调用 release()

 1 def main(url, image_name):
 2     """
 3     主函数:实现下载图片功能
 4     :param url: 图片url
 5     :param image_name: 图片名称
 6     :return:
 7     """
 8     
 9     with pool_sema:
10         print('当前子线程: {}'.format(threading.current_thread().name))
11         save_path = os.path.dirname(os.path.abspath('.')) + '/pics/'
12         try:
13             file_path = '{0}/{1}.jpg'.format(save_path, image_name)
14             if not os.path.exists(file_path):  # 判断是否存在文件,不存在则爬取
15                 with open(file_path, 'wb') as f:
16                     f.write(get_image_content(url))
17                     f.close()
18 
19                     print('第{}个文件保存成功'.format(image_name))
20 
21             else:
22                 print("第{}个文件已存在".format(image_name))
23 
24             
25 
26         except FileNotFoundError as f:
27             print("第{}个文件下载时遇到错误,url为:{}:".format(image_name, url))
28             print("报错:", f)
29             raise
30 
31         except TypeError as e:
32             print("第{}个文件下载时遇到错误,url为:{}:".format(image_name, url))
33             print("报错:", e)

(2)方法二:直接使用 acquire()和 release()

下面的第8行调用  acquire(),第24行调用release()

 1 def main(url, image_name):
 2     """
 3     主函数:实现下载图片功能
 4     :param url: 图片url
 5     :param image_name: 图片名称
 6     :return:
 7     """
 8     pool_sema.acquire()  # 加锁,限制线程数
 9     # with pool_sema:
10     print('当前子线程: {}'.format(threading.current_thread().name))
11     save_path = os.path.dirname(os.path.abspath('.')) + '/pics/'
12     try:
13         file_path = '{0}/{1}.jpg'.format(save_path, image_name)
14         if not os.path.exists(file_path):  # 判断是否存在文件,不存在则爬取
15             with open(file_path, 'wb') as f:
16                 f.write(get_image_content(url))
17                 f.close()
18 
19                 print('第{}个文件保存成功'.format(image_name))
20 
21         else:
22             print("第{}个文件已存在".format(image_name))
23 
24         pool_sema.release()  # 解锁imgbin-多线程-重写run方法.py
25 
26     except FileNotFoundError as f:
27         print("第{}个文件下载时遇到错误,url为:{}:".format(image_name, url))
28         print("报错:", f)
29         raise
30 
31     except TypeError as e:
32         print("第{}个文件下载时遇到错误,url为:{}:".format(image_name, url))
33         print("报错:", e)

最终效果是一样的,每次启用5个线程,完成后再启动下一批

 

 

 

posted @ 2020-05-30 11:09  我是冰霜  阅读(17883)  评论(0编辑  收藏  举报