Python并发总结:多线程、多进程与异步编程

随着多核的发展,Python中并发编程也变得越来越广泛且发展很快。

一方面,Python提供了多种并发编程工具。

比如,传统的多线程,通过threading模块方便地创建和管理线程,可用于I/O密集型任务;

多进程,利用multiprocessing模块充分利用多核CPU优势,适合CPU密集型任务。

另一方面,随着异步编程的兴起。asyncio库也让开发者能够编写高效的异步代码,提升程序性能,尤其在处理大量并发I/O操作场景表现出色。

不过,Python中全局解释器锁(GIL)为并发编程带来了不小的挑战,目前社区正在积极探索绕过GIL的方法和优化策略,推动Python并发编程持续进步。

本篇打算一一介绍如何Python中使用多线程、多进程或异步的方式来编写程序。

1. 多线程

Python中多线程的模块是threading,早在Python 1.5 版本时就加入到标准库中了。

threading一直在发展,特别是进入Python3.x之后,

Python3.3~Python3.13,几乎每次Python的升级都伴随着threading的变化。

所以,使用时务必根据自己Python版本来正确使用threading的接口。

1.1. 使用场景和局限

Python的多线程广泛用于 I/O 密集型的任务场景中,如网络请求、文件读写等,让程序在等待 I/O 操作时切换执行其他线程,从而提升整体效率。

随着应用场景拓展,多线程局限性也逐渐凸显。

最主要的是全局解释器锁GIL),这是 Python 解释器的一个特性,同一时刻只有一个线程能执行 Python 字节码。

这导致在 CPU 密集型任务中,多线程无法充分利用多核 CPU 优势,性能提升不明显甚至可能降低。

不过,尽管存在局限,多线程在 Python 生态中仍有重要地位。

开发者不断探索优化方法,如使用threading结合multiprocessing等其他并发模块,扬长避短。同时,新的 Python 版本也在尝试改进 GIL 机制,为多线程发展提供更多可能 。

1.2. 使用方式

在实际开发中,使用多线程主要有3种方式:

第一种方式是直接使用threading.Thread类创建线程,

这是最基本的方式,直接实例化threading.Thread类并传入目标函数及参数。

import threading


def worker():
    print('线程正在执行')


# 创建线程
t = threading.Thread(target=worker)
# 启动线程
t.start()
# 等待线程执行完毕
t.join()

第二种方式通过继承threading.Thread类创建线程类,并重写run方法来定义线程执行的任务。

import threading


class MyThread(threading.Thread):
    def run(self):
        print(f'{self.name} 线程正在执行')


# 创建线程实例
my_thread = MyThread()
# 启动线程
my_thread.start()
# 等待线程执行完毕
my_thread.join()

最后一种方式是使用threading.ThreadPool实现线程池,在 Python 3 中,建议使用concurrent.futures模块中的ThreadPoolExecutor来实现线程池功能。

threading.ThreadPool已经标记过时,不建议在新的项目中再使用。

线程池的好处是可以管理一组线程,重用线程资源,减少线程创建和销毁的开销。

import concurrent.futures


def task(num):
    print(f"执行任务 {num}")
    return num * 2


# 创建线程池,最大线程数为3
with concurrent.futures.ThreadPoolExecutor(max_workers=3) as executor:
    # 提交任务
    future_to_num = {executor.submit(task, num): num for num in range(5)}
    for future in concurrent.futures.as_completed(future_to_num):
        num = future_to_num[future]
        try:
            result = future.result()
        except Exception as e:
            print(f"任务 {num} 执行失败: {e}")
        else:
            print(f"任务 {num} 结果: {result}")

执行结果:

$  python.exe .\thread.py
执行任务 0
执行任务 1
执行任务 2
执行任务 3
任务 1 结果: 2
执行任务 4
任务 2 结果: 4
任务 0 结果: 0
任务 3 结果: 6
任务 4 结果: 8

2. 多进程

多线程模块multiprocessingPython 2.6 版本引入,随后在 Python 3.x 中持续发展。

在发展过程中,multiprocessing不断完善。它提供了简洁且强大的接口,让开发者能轻松创建和管理多个进程,充分利用多核 CPU 的优势,大幅提升 CPU 密集型任务的处理效率。

它支持多种进程间通信方式,如队列、管道等,方便进程间的数据共享与同步。

2.1. 使用场景和局限

multiprocessing适用于CPU 密集型计算,如科学计算、数据分析、图像处理等需要大量计算资源的任务。

当有多个独立任务需要同时执行时,也可以使用multiprocessing,例如批量文件处理、任务队列处理等。可以为每个任务分配一个进程,提高任务执行效率。

此外,在一些服务器应用中,也可以使用多进程让主进程处理请求的同时,其他进程负责后台任务,如数据缓存更新、日志记录等,从而避免阻塞主线程,提升应用的响应速度 。

不过,multiprocessing也存在一些局限性。

由于每个进程都有独立的内存空间,进程间数据共享和通信相对复杂,需要额外的机制和同步操作,可能带来性能损耗。

并且,创建和销毁进程的开销较大,频繁地创建和销毁进程会影响程序的整体性能。

此外,它的使用场景相对受限,不适用于简单的并发任务,相比多线程,在 I/O 密集型任务中优势不明显,因为多线程在 I/O 等待时能切换执行其他任务,多进程则会耗费更多资源。

2.2. 使用方式

这里也介绍使用multiprocessing的3种常用的方式:

第一种是直接使用 Process 类,通过实例化multiprocessing.Process类并传入目标函数及参数来创建进程。

import multiprocessing


def worker():
    print('进程正在执行')


if __name__ == '__main__':
    # 创建进程
    p = multiprocessing.Process(target=worker)
    # 启动进程
    p.start()
    # 等待进程执行完毕
    p.join()

第二种方式是通过继承multiprocessing.Process类,并重写run方法来定义进程执行的任务。

import multiprocessing


class MyProcess(multiprocessing.Process):
    def run(self):
        print(f'{self.name} 进程正在执行')


if __name__ == '__main__':
    # 创建进程实例
    my_process = MyProcess()
    # 启动进程
    my_process.start()
    # 等待进程执行完毕
    my_process.join()

最后一种方式是通过multiprocessing.Pool类创建一个进程池,自动分配任务给进程,提高资源利用率。

import multiprocessing


def task(num):
    return num * 2


if __name__ == '__main__':
    # 创建进程池,最大进程数为3
    with multiprocessing.Pool(processes=3) as pool:
        # 使用map方法并行执行任务
        results = pool.map(task, range(5))
        print(results)

这三种使用方式看起来和上一节中的threading都差不多,不过,它们底层的处理是完全不一样的,

multiprocessing会为每个任务单独创建一个进程去执行;而threading中的所有任务都是在同一个进程中执行的。

3. 异步

异步模块asyncio的历史比上面的两个模块要迟很多,它在Python 3.4 版本中被首次引入。

Python 3.5时, 引入了asyncawait关键字,让异步代码的编写更加简洁、易读,大大提升了异步编程的体验,推动了asyncio的广泛应用。

3.1. 使用场景和局限

asyncio适用于下面几种对并发处理要求高的场景:

  • 网络爬虫:在爬取多个网页时,asyncio能在等待响应的同时,继续发送其他请求,大大提高爬取效率,缩短获取大量数据的时间。

  • 网络服务端开发:处理高并发的客户端连接,如构建聊天服务器、实时数据推送服务等。它能异步处理每个客户端请求,避免阻塞,确保服务器高效运行。

  • I/O密集型任务:如文件读写、数据库操作等。asyncio可在等待I/O操作完成时执行其他任务,减少整体等待时间,提升程序性能。

当然,asyncio的优势明显,但也存在一些局限性。

一方面,由于它基于单线程,在处理 CPU 密集型任务时性能欠佳,无法充分利用多核 CPU 的优势。

另一方面,异步编程模型相对复杂,代码调试和维护难度较高,需要开发者对异步概念有深入理解,否则容易出现逻辑错误。

此外,asyncio与一些传统的同步库可能存在兼容性问题,在集成现有代码时可能会遇到困难。

3.2. 使用方式

asyncio是比较新的模块,它的使用方式主要有:

  1. 定义一个协程函数,使用async def关键字声明,在函数内部使用await关键字暂停协程执行,等待其他异步操作完成。
import asyncio


async def coroutine():
    print('开始执行协程函数')
    await asyncio.sleep(1)
    print('协程函数执行结束')


if __name__ == '__main__':
    asyncio.run(coroutine())

asyncio.run()用于运行最高层级的协程。

  1. 使用asyncio.gather()函数可以同时运行多个协程。
import asyncio


async def coroutine1():
    await asyncio.sleep(1)
    print('协程1执行完毕')


async def coroutine2():
    await asyncio.sleep(2)
    print('协程2执行完毕')


if __name__ == "__main__":
    try:
        loop = asyncio.get_running_loop()
    except RuntimeError:
        loop = asyncio.new_event_loop()
        asyncio.set_event_loop(loop)
    try:
        loop.run_until_complete(asyncio.gather(coroutine1(), coroutine2()))
    finally:
        loop.close()
  1. 使用async for对异步可迭代对象进行迭代。
import asyncio


async def async_generator():
    for i in range(3):
        await asyncio.sleep(1)
        yield i


async def main():
    async for num in async_generator():
        print(num)


if __name__ == "__main__":
    asyncio.run(main())

这种方式适用于处理异步产生的数据序列。

4. 总结

总的来看,

多线程是在一个进程里创建多个线程,共享资源,线程切换开销小,适合 I/O 密集型任务,像网络请求、文件读写。

它编程简单,能提高程序响应性,但因全局解释器锁,在 CPU 密集型任务中无法发挥多核优势,还存在线程安全问题。

多进程中每个进程有独立内存和资源,适合 CPU 密集型任务,能充分利用多核 CPU,稳定性高。

不过,进程创建和销毁开销大,进程间通信和数据共享复杂。

异步编程基于事件循环和协程,在单线程内实现异步。

它并发性能高,代码简洁,适合大量 I/O 密集型任务。但不适合 CPU 密集型任务,编程模型复杂,调试维护难。

简单来说,在开发时,I/O 密集型任务少用多线程,任务多用异步;CPU 密集型任务就选多进程;混合任务则按需组合。

posted @ 2024-12-31 13:10  wang_yb  阅读(445)  评论(0编辑  收藏  举报