TCP服务端并发 GIL解释器锁 python多线程是否有用 死锁与递归锁 信号量event事件线程q

TCP服务端支持并发

解决方式:开多线程

服务端

基础版

import socket
"""
服务端
    1.要有固定的IP和PORT
    2.24小时不间断提供服务
    3.能够支持并发
"""

server = socket.socket()
server.bind(('127.0.0.1',8080))
server.listen(5)


def talk(conn):
    while True:
        try:
            data = conn.recv(1024)
            if len(data) == 0:break
            print(data.decode('utf-8'))
            conn.send(data.upper())
        except ConnectionResetError as e:
            print(e)
            break
    conn.close()

while True:
    conn, addr = server.accept()  # 监听 等待客户端的连接  阻塞态
    print(addr)

进阶版:支持并发

import socket
from threading import Thread  # ①多导入了这个

"""
服务端
    1.要有固定的IP和PORT
    2.24小时不间断提供服务
    3.能够支持并发
"""

server = socket.socket()
server.bind(('127.0.0.1',8080))
server.listen(5)


def talk(conn):
    while True:
        try:
            data = conn.recv(1024)
            if len(data) == 0:break
            print(data.decode('utf-8'))
            conn.send(data.upper())
        except ConnectionResetError as e:
            print(e)
            break
    conn.close()

while True:
    conn, addr = server.accept()  # 监听 等待客户端的连接  阻塞态
    print(addr)
    t = Thread(target=talk,args=(conn,))  # ②加了这个
    t.start()  # ③加了这个

客户端

import socket
# 客户端都是一样的
client = socket.socket()
client.connect(('127.0.0.1',8080))

while True:
    client.send(b'hello')
    data = client.recv(1024)
    print(data.decode('utf-8'))

GIL全局解释器锁


ps:python解释器有很多种  最常见的就是CPython解释器,GIL也是在CPython中的。

GIL本质也是一把互斥锁:(是加在解释器上的

GIL的存在是因为CPython解释器的内存管理不是线程安全的

GIL工作原理:将并发变成串行牺牲效率保证数据的安全 ,用来阻止同一个进程下的多个线程的同时执行

👆上面第二行的内存管理(也就是垃圾回收机制) (需要自己查一查背一背以下三个的描述)

1.引用计数:值与变量的绑定关系的个数

2.标记清除 :当内存快要满的时候,会自动停止程序的运行,检测所有的变量和值得绑定关系

给没有绑定关系的值打上标记,最后一次性清除

3.分代回收:(垃圾回收机制也是需要消耗资源的,而正常一个程序的运行,内部会使用到很多变量和值,并且有一部分类似于常量python中没有常量的概念,减少垃圾回收消耗的时间,应该对变量和值的绑定关系做一个分类)

新生代(5s) >>> 青春代(10s) >>> 老年代(20s)

垃圾回收机制扫描一定次数发现关系还在,会将该对关系移至下一代

随着代数的递增 扫描频率是降低的

GIL是python的特点吗?

答:不是,是CPython解释器的特点。

单进程下多个线程无法利用多核优势是所有解释型语言的通病

答:正确,没有很好的解决方法,当前阶段用GIL解决(并非最佳解决方案)

针对不同的设备应该加不同的锁进行处理

验证:有了GIL之后在同一个进程内开多个线程还需不需要再加锁

from threading import Thread
import time

n = 100

def task():
    global n
    tmp = n
    time.sleep(1)  # 这里睡一秒,是IO操作,会将锁自动释放
    # 这里所有人都先拿到n等于100,然后都睡一觉,都把锁放了,
    #再转到下面的代码,都把自己的数据改成99
    n = tmp -1

    # 如果上面的把time.sleep(1)注释掉的话,线程1会拿到锁然后执行到最后一行,
    # 把100改成99,执行结束了,就把锁放了,然后让下一个线程来抢,
    # 因为之前已经把全局修改为99,线程2会接着执行到代码结束得到98然后放掉锁,
    # 以此类推,最后输出的结果是:0
    
t_list = []
for i in range(100):
    t = Thread(target=task)
    t.start()
    t_list.append(t)

for t in t_list:
    t.join()

print(n)

(同一个进程内多个线程无法实现并行但是可以实现并发)

思考: python的多线程没法利用多核优势 ,是不是就是没有用了?

研究python的多线程是否有用

需要分情况讨论

四个任务 计算密集型的 10s
单核情况下
开线程更省资源
多核情况下
开进程 10s (可以用到多核同时执行)
开线程 40s

计算密集型
from multiprocessing import Process
from threading import Thread
import os,time
def work():
    res=0
    for i in range(100000000):
        res*=i


if __name__ == '__main__':
    l=[]
    print(os.cpu_count())  # 本机为6核
    start=time.time()
    for i in range(6):
        # p=Process(target=work) #开进程耗时  4.732933044433594
        p=Thread(target=work) #开线程耗时 22.83087730407715
        # 本来是6核能一起运行的时间,现在是只用一个核,
        # 所以 计算密集型里(用线程的时间)≈(用进程的时间*核心数)
        l.append(p)
        p.start()
    for p in l:
        p.join()
    stop=time.time()
    print('run time is %s' %(stop-start))

四个任务 IO密集型的
单核情况下
开线程更节省资源
多核情况下
开线程更节省资源

# IO密集型
from multiprocessing import Process
from threading import Thread
import threading
import os,time
def work():
    time.sleep(2)


if __name__ == '__main__':
    l=[]
    print(os.cpu_count()) #本机为6核
    start=time.time()
    for i in range(400):
        p=Process(target=work) #耗时9.001083612442017s多,大部分时间耗费在创建进程上
        # p=Thread(target=work) #耗时2.051966667175293s多
        # IO密集型里明显能感觉到,开线程更合理
        l.append(p)
        p.start()
    for p in l:
        p.join()
    stop=time.time()
    print('run time is %s' %(stop-start))

python的多线程到底有没有用

需要看情况而定 并且肯定是有用的

并不能说明多线程和多进程一定是哪种最好,还是要多进程+多线程配合使用


以下都是了解知识点,代码多为伪代码

死锁与递归锁

死锁就是下面Lock可能出现的

递归锁就是下面的RLock

递归锁可以被连续的acquire( 前提是只有第一个抢到的人才能连续acquire )

只有RLock的引用计数为0才能被抢

只有第一个抢到RLock的线程才能将引用计数release为0

from threading import Thread,Lock,current_thread,# ①这里导入 RLock 加上下面的操作是解决死锁的方法之一(递归锁)
import time
"""
Rlock可以被第一个抢到锁的人连续的acquire和release
每acquire一次锁身上的计数加1
每release一次锁身上的计数减1
只要锁的计数不为0 其他人都不能抢

"""
mutexA = Lock()
mutexB = Lock()  # 这里两把锁是不一样的
# mutexA = mutexB = RLock()  # A B现在是同一把锁 ② 这里换成这一句,就能解决死锁


class MyThread(Thread):
    def run(self):  # 创建线程自动触发run方法 run方法内调用func1 func2相当于也是自动触发
        self.func1()
        self.func2()

    def func1(self):
        mutexA.acquire()
        print('%s抢到了A锁'%self.name)  # self.name等价于current_thread().name
        mutexB.acquire()
        print('%s抢到了B锁'%self.name)
        mutexB.release()
        print('%s释放了B锁'%self.name)
        mutexA.release()
        print('%s释放了A锁'%self.name)

    def func2(self):
        mutexB.acquire()
        print('%s抢到了B锁'%self.name)
        time.sleep(1)
        mutexA.acquire()
        print('%s抢到了A锁' % self.name)
        mutexA.release()
        print('%s释放了A锁' % self.name)
        mutexB.release()
        print('%s释放了B锁' % self.name)

for i in range(10):
    t = MyThread()
    t.start()

上面的代码块大概第十行,两个锁不一样,这里是说明:

# class Demo(object):
# #     pass
# #
# # obj1 = Demo()
# # obj2 = Demo()
# # print(id(obj1),id(obj2))  # 这里id不同
"""
只要类加括号实例化对象
无论传入的参数是否一样生成的对象肯定不一样
单例模式除外(单例是人为限制住了)
"""

自己千万不要轻易处理锁的问题

信号量

信号量可能在不同的领域中 对应不同的知识点

互斥锁:单个卫生间(一个坑位)

信号量:多个卫生间(多个坑位)

from threading import Semaphore,Thread
import time
import random


sm = Semaphore(5)  # 造了一个含有五个的坑位的公共厕所

def task(name):
    sm.acquire()
    print('%s占了一个坑位'%name)
    time.sleep(random.randint(1,3))
    sm.release()

for i in range(40):
    t = Thread(target=task,args=(i,))  # 这里args=(i,)就是给name传值,
    # 这里给name传的值就是i
    t.start()

task里面的sleep 如果里面的值是“1” 那就是五个人先抢到坑位,然后五个人同时释放,再让接下来5个人抢

如果是上面的randint(1,3)就不是五个人同时出来了

event事件

之前学过的join()方法是主进程等待子进程结束

是否让一个子进程等待另一个子进程结束呢?

下面是一个线程等另一个线程的模型

from threading import Event,Thread
import time

# 先生成一个event对象
e = Event()


def light():  # 红绿灯
    print('红灯正亮着')
    time.sleep(3)
    e.set()  # 发信号
    print('绿灯亮了')

def car(name):  # 汽车
    print('%s正在等红灯'%name)
    e.wait()  # 等待信号
    print('%s加油门飙车了'%name)

t = Thread(target=light)
t.start()

for i in range(10):
    t = Thread(target=car,args=('伞兵%s'%i,))
    t.start()

这里就是子线程car等待子线程light

线程q

import queue
"""
同一个进程下的多个线程本来就是数据共享 为什么还要用队列?
因为队列是管道+锁  使用队列你就不需要自己手动操作锁的问题 
因为锁操作的不好极容易产生死锁现象
"""

q = queue.Queue()
q.put('hahha')
print(q.get())  # 结果:hahha  (这就是普通的 Queue )

--------------------------------------------------
q = queue.LifoQueue()  # last in first out (堆栈)
q.put(1)
q.put(2)
q.put(3)
print(q.get())  # 结果:3  (因为这是最后一个加的)
--------------------------------------------------

q = queue.PriorityQueue()  # 优先级 Queue (支持手动设计优先级)
# 数字越小 优先级越高
q.put((10,'haha'))  # 注意得传元组,元组里面两个值,第一个值是优先级,第二个是参数
q.put((100,'hehehe'))
q.put((0,'xxxx'))
q.put((-10,'yyyy'))
print(q.get())  # 结果:yyyy (因为这个优先级最高)
posted @ 2019-08-14 13:14  Bitten  阅读(214)  评论(0编辑  收藏  举报