验证GIL的存在

from threading import Thread

money = 100


def task():
    global money
    money -= 1


t_list = []
for i in range(100):  # 创建100个线程
    t = Thread(target=task)
    t.start()
    t_list.append(t)  
for t in t_list:
    t.join()
# 等待所有的线程运行结束 查看money是多少
print(money)  # 0

验证GIL的特点

有IO机制 会发生错乱的现象

from threading import Thread
import time
money = 100


def task():
    global money
    tmp = money
    time.sleep(0.1)  # 进入IO机制
    money = tmp - 1


t_list = []
for i in range(100):  # 创建100个线程
    t = Thread(target=task)
    t.start()
    t_list.append(t)
for t in t_list:
    t.join()
# 等待所有的线程运行结束 查看money是多少
print(money)  # 99

解决措施

  自己加锁

from threading import Thread,Lock
import time

money = 100
mutex = Lock()  # 创造锁


def task():
    mutex.acquire()  # 抢锁
    global money
    tmp = money
    time.sleep(0.1)
    money = tmp - 1
    mutex.release()  # 释放锁


t_list = []
for i in range(100):  # 创建100个线程
    t = Thread(target=task)
    t.start()
    t_list.append(t)
for t in t_list:
    t.join()
# 等待所有的线程运行结束 查看money是多少
print(money)  # 0

验证python多线程是否有用

需要分情况
情况1
	单个CPU
	多个CPU
情况2
	IO密集型(代码有IO操作)
	计算密集型(代码没有IO)

1.单个CPU
IO密集型
	多进程
		申请额外的空间 消耗更多的资源
	多线程
		消耗资源相对较少 通过多道技术
	ps:多线程有优势!!!

计算密集型
	多进程
		申请额外的空间 消耗更多的资源(总耗时+申请空间+拷贝代码+切换)
	多线程
		消耗资源相对较少 通过多道技术(总耗时+切换)
	ps:多线程有优势!!!

2.多个CPU
IO密集型
	多进程
		总耗时(单个进程的耗时+IO+申请空间+拷贝代码)
	多线程
		总耗时(单个进程的耗时+IO)
	ps:多线程有优势!!!

计算密集型
	多进程
		总耗时(单个进程的耗时)
	多线程
		总耗时(多个进程的综合)
	ps:多进程完胜!!!

代码实践

一、计算密集型
from threading import Thread
from multiprocessing import Process
import os
import time


def work():
    res = 1
    for i in range(1, 100000):
        res *= i


if __name__ == '__main__':
    print(os.cpu_count())  # 16  查看当前计算机CPU个数

    # 多进程
    start_time = time.time()
    p_list = []
    for i in range(16):  # 一次性创建16个进程
        p = Process(target=work)
        p.start()  #
        p_list.append(p)
    for p in p_list:  # 确保所有的进程全部运行完毕
        p.join()
    print('总耗时:%s' % (time.time() - start_time))  # 获取总的耗时 总耗时:5.607265472412109

    # 多线程
    start_time = time.time()
    t_list = []
    for i in range(12):
        t = Thread(target=work)
        t.start()
        t_list.append(t)
    for t in t_list:
        t.join()
    print('总耗时:%s' % (time.time() - start_time))  # 获取总的耗时 总耗时:26.753153085708618
"""
多进程总耗时:5.607265472412109
多线程总耗时:26.753153085708618
"""
二、IO密集型
from threading import Thread
from multiprocessing import Process
import os
import time


def work():
    time.sleep(2)


if __name__ == '__main__':
    # 多进程
    start_time = time.time()
    p_list = []
    for i in range(100):
        p = Process(target=work)
        p.start()
        p_list.append(p)
    for p in p_list:
        p.join()
    print('总耗时:%s' % (time.time() - start_time))  # 总耗时:3.1973876953125

    # 多线程
    start_time = time.time()
    t_list = []
    for i in range(100):
        t = Thread(target=work)
        t.start()
        t_list.append(t)
    for t in t_list:
        t.join()
    print('总耗时:%s' % (time.time() - start_time))  # 总耗时:2.0217387676239014
"""
多进程总耗时:3.1973876953125
多线程总耗时:2.0217387676239014
"""

死锁现象

虽然我们掌握了互斥锁的使用

  先抢锁 后释放锁

就是你要的锁在我手里 我要的锁在你手里 还必须互相手里都需要有一把锁
极其容易产生死锁现象(整个程序卡死 阻塞)

from threading import Thread, Lock
import time

mutexA = Lock()  # 类名加括号每执行一次就会产生一个新的对象
mutexB = Lock()  # 类名加括号每执行一次就会产生一个新的对象


class MyThread(Thread):
    def run(self):
        self.func1()
        self.func2()

    def func1(self):
        mutexA.acquire()
        print(f'{self.name}抢到了A锁')
        mutexB.acquire()
        print(f'{self.name}抢到了B锁')
        mutexB.release()
        print(f'{self.name}释放了B锁')
        mutexA.release()
        print(f'{self.name}释放了A锁')

    def func2(self):
        mutexB.acquire()
        print(f'{self.name}抢到了B锁')
        time.sleep(1)
        mutexA.acquire()
        print(f'{self.name}抢到了A锁')
        mutexA.release()
        print(f'{self.name}释放了A锁')
        mutexB.release()
        print(f'{self.name}释放了B锁')


for i in range(10):
    t = MyThread()
    t.start()

信号量

信号量本质也是互斥锁 只不过他是多把锁

我们之前使用Lock产生的是单把锁

信号量就相当于多把锁

强调:

  信号量在不同的知识体系中 意思可能有区别
  在并发编程中 信号量就是多把互斥锁
  在django中 信号量指的是达到某个条件自动触发(中间件)

from threading import Thread, Lock, Semaphore
import time
import random


sp = Semaphore(5)  # 一次性产生五把锁


class MyThread(Thread):
    def run(self):
        sp.acquire()  # 抢锁
        print(self.name)
        time.sleep(random.randint(1, 3))
        sp.release()  # 释放锁


for i in range(20):
    t = MyThread()
    t.start()

event事件

子进程\字线程之间可以彼此等待彼此

eg:

  子A运行到某一个代码位置后发信号告诉子B开始运行

from threading import Thread, Event
import time

event = Event()  # 类似于造了一个红绿灯


def light():
    print('红灯亮着的 所有人都不能动')
    time.sleep(3)
    print('绿灯亮了 油门踩到底 给我冲!!!')
    event.set()  # set类似于发号事令的人


def car(name):
    print('%s正在等红灯' % name)
    event.wait()  # wait收到set的事令后就会执行
    print('%s加油门 飙车了' % name)


t = Thread(target=light)
t.start()
for i in range(20):
    t = Thread(target=car, args=('靓仔%s' % i,))
    t.start()

进程池与线程池

进程池与线程池的创建方法一致

一、线程池
from concurrent.futures import ThreadPoolExecutor
from threading import current_thread
import time

tool = ThreadPoolExecutor(5)  # 固定产生五个线程


def task(n):
    print(current_thread().name)  # 线程号名字
    print(n)  # 123
    time.sleep(1)
    return '返回的结果'


def func(*args, **kwargs):
    print('func', args, kwargs)  # func (<Future at 0x1d262ec09b0 state=finished returned str>,) {}
    print(args[0].result())  # 返回的结果



for i in range(20):
# res = pool.submit(task,123)  # 朝池子中提交20个任务(异步)
# print(res.result())  # result是结果的意思  直接点result会变成同步效果
tool.submit(task, 123).add_done_callback(func)
"""
异步回调:异步任务执行完成后有结果就会自动触发该机制
"""

add_done_callback()给任务绑定一个回调机制 异步提交之后有了结果会自动触发该机制

专业名词:异步回调

二、进程池
from concurrent.futures import ProcessPoolExecutor
import os
import time

pool = ProcessPoolExecutor(5)  # 固定产生五个进程


def task():
    print(os.getpid())  # 进程号名字
    time.sleep(1)
    return '返回的结果'


def func(*args, **kwargs):
    print('func', args, kwargs)  # func (<Future at 0x1eee6a014a8 state=finished returned str>,) {}
    print(args[0].result())  # 返回的结果


if __name__ == '__main__':
    for i in range(20):
        pool.submit(task).add_done_callback(func)

协程简介

进程:资源单位

线程:执行单位

协程:单线程下实现并发(效率极高)

  在代码层面欺骗CPU 让CPU觉得我们的代码里没有IO操作

  实际上IO操作被我嗯自己写的代码检测 一但有 立刻让代码执行别的

  该技术完全是程序员自己弄出来的 名字也是程序员自己起的

核心:自己写的代码 完全切换 + 保存

代码实践(猴子补丁)

import time
from gevent import monkey;monkey.patch_all()  # 固定编写 用于检测所有的IO操作(猴子补丁)
from gevent import spawn


def func1():
    print('func1 running')
    time.sleep(3)
    print('func1 over')


def func2():
    print('func2 running')
    time.sleep(5)
    print('func2 over')


if __name__ == '__main__':
    start_time = time.time()
    func1()
    func2()
    print(time.time() - start_time)  # 总耗时: 8.01237154006958

    # 协程
    s1 = spawn(func1)  # 检测代码 一旦有IO自动切换(执行没有io的操作 变向的等待io结束)
    s2 = spawn(func2)
    s1.join()
    s2.join()
    print(time.time() - start_time)  # 总耗时: 5.026265382766724

协程实现TCP服务端并发

服务端

import socket
from gevent import monkey;monkey.patch_all()  # 固定编写 用于检测所有的IO操作(猴子补丁)
from gevent import spawn


def communication(sock):
    while True:
        data = sock.recv(1024)
        print(data.decode('utf8'))
        sock.send(data.upper())


def get_server():
    server = socket.socket()
    server.bind(('127.0.0.1', 8080))
    server.listen(5)
    while True:
        sock, addr = server.accept()  # IO操作
        spawn(communication, sock)

s1 = spawn(get_server)
s1.join()

客户端

import socket
from threading import Thread,current_thread


def client():
    client = socket.socket()
    client.connect(('127.0.0.1',8080))
    while True:
        client.send(f'{current_thread().name}'.encode('utf8'))
        data = client.recv(1024)
        print(data.decode('utf8'))

for i in range(200):
    t = Thread(target=client)
    t.start()
 posted on 2022-08-11 20:28  Joker_Ly  阅读(51)  评论(0)    收藏  举报