1 2 3 4

线程相关

* 线程相关知识点

什么是线程

进程:资源单位(起一个进程仅仅只是在内存空间中开辟一块独立的空间)每一个进程肯定自带一个线程
线程:执行单位(真正被cpu执行的其实是进程里面的线程,线程指的就是代码的执行过程,执行代码中所需要使用到的资源都找所在的进程索要)
将操作系统比喻成一个大的工厂,那么进程就相当于工厂里面的车间,而线程就是车间里面的流水线
ps:进程和线程都是虚拟单位,只是为了我们更加方便的描述问题

为何要有线程

开设进程
1.申请内存空间 耗资源
2.“拷贝代码”或导入模块的方式 耗资源
开线程
一个进程内可以开设多个线程,在用一个进程内开设多个线程无需再次申请内存空间操作
总结:
开设线程的开销要远远的小于进程的开销
同一个进程下的多个线程数据是共享的!!!

* 开启线程的两种方式

第一种

from multiprocessing import Process
from threading import Thread
import time


def task(name):
print('%s is running'%name)
time.sleep(1)
print('%s is over'%name)


# 开启线程不需要在main下面执行代码 直接书写就可以
# 但是我们还是习惯性的将启动命令写在main下面
t = Thread(target=task,args=('egon',))
# p = Process(target=task,args=('jason',))
# p.start()
t.start() # 创建线程的开销非常小 几乎是代码一执行线程就已经创建了
print('主')

第二种:

from threading import Thread
import time


class MyThead(Thread):
def __init__(self, name):
"""针对双下划线开头双下滑线结尾(__init__)的方法 统一读成 双下init"""
# 重写了别人的方法 又不知道别人的方法里有啥 你就调用父类的方法
super().__init__()
self.name = name

def run(self):
print('%s is running' % self.name)
time.sleep(1)
print('egon DSB')


if __name__ == '__main__':
t = MyThead('egon')
t.start()
print('主')

 

* TCP服务端实现并发的效果

服务端:

import socket
from threading import Thread
from multiprocessing import Process

"""
服务端
1.要有固定的IP和PORT
2.24小时不间断提供服务
3.能够支持并发

从现在开始要养成一个看源码的习惯
我们前期要立志称为拷贝忍者 卡卡西 不需要有任何的创新
等你拷贝到一定程度了 就可以开发自己的思想了
"""
server = socket.socket() # 括号内不加参数默认就是TCP协议
server.setsockopt(socket.SOL_SOCKET,socket.SO_REUSEADDR,1)
server.bind(('127.0.0.1', 8080))
server.listen(5)


# 将服务的代码单独封装成一个函数
def talk(conn):
# 通信循环
while True:
try:
data = conn.recv(1024)
# 针对mac linux 客户端断开链接后
if len(data) == 0: break
print(data.decode('utf-8'))
conn.send(data.upper())
except ConnectionResetError as e:
print(e)
break
conn.close()


# 链接循环
if __name__ == '__main__':
while True:
conn, addr = server.accept() # 接客
# 叫其他人来服务客户
# t = Thread(target=talk,args=(conn,))
t = Process(target=talk, args=(conn,))
t.start()

客户端:

import socket

client = socket.socket()
client.connect(('127.0.0.1', 8080))

while True:
client.send('hello world'.encode('utf-8'))
data = client.recv(1024)
print(data.decode('utf-8'))

* 线程对象的join方法

案例:

from threading import Thread
import time


def task(name):
print('%s is running' % name)
time.sleep(3)
print('%s is over' % name)


if __name__ == '__main__':
t = Thread(target=task, args=('egon',))
t.start()
t.join() # 主线程等待子线程运行结束再执行
print('主')

* 同一个进程下的多个线程数据是共享的

案例:

from threading import Thread
import time

money = 100


def task():
global money
money = 666
print(money)


if __name__ == '__main__':
t = Thread(target=task)
t.start()
t.join()
print(money)

* 线程对象属性及其他方法

Thread实例对象的方法
  # isAlive(): 返回线程是否活动的。
  # getName(): 返回线程名。
  # setName(): 设置线程名。

threading模块提供的一些方法:
  # threading.currentThread(): 返回当前的线程变量。
  # threading.enumerate(): 返回一个包含正在运行的线程的list。正在运行指线程启动后、结束前,不包括启动前和终止后的线程。
  # threading.activeCount(): 返回正在运行的线程数量,与len(threading.enumerate())有相同的结果。
案例:
from threading import Thread, active_count, current_thread
import os, time


def task(n):
# print('hello world',os.getpid())
print('hello world', current_thread().name)
time.sleep(n)


if __name__ == '__main__':
t = Thread(target=task, args=(1,))
t1 = Thread(target=task, args=(2,))
t.start()
t1.start()
t.join()
print('主', active_count()) # 统计当前正在活跃的线程数
# print('主',os.getpid())
# print('主',current_thread().name) # 获取线程名字

* 守护线程

# from threading import Thread
# import time
#
#
# def task(name):
# print('%s is running'%name)
# time.sleep(1)
# print('%s is over'%name)
#
#
# if __name__ == '__main__':
# t = Thread(target=task,args=('egon',))
# t.daemon = True
# t.start()
# print('主')

"""
主线程运行结束之后不会立刻结束 会等待所有其他非守护线程结束才会结束
因为主线程的结束意味着所在的进程的结束
"""

# 稍微有一点迷惑性的例子
from threading import Thread
import time


def foo():
print(123)
time.sleep(1)
print('end123')


def func():
print(456)
time.sleep(3)
print('end456')


if __name__ == '__main__':
t1 = Thread(target=foo)
t2 = Thread(target=func)
t1.daemon = True
t1.start()
t2.start()
print('主.......')

* 线程互斥锁

案例:

from threading import Thread, Lock
import time

money = 100
mutex = Lock()


def task():
global money
mutex.acquire()
tmp = money
time.sleep(0.1)
money = tmp - 1
mutex.release()


if __name__ == '__main__':

t_list = []
for i in range(100):
t = Thread(target=task)
t.start()
t_list.append(t)
for t in t_list:
t.join()
print(money)

* GIL全局解释器锁

官方文档解释

In CPython, the global interpreter lock, or GIL, is a mutex that prevents multiple 
native threads from executing Python bytecodes at once. This lock is necessary mainly
because CPython’s memory management is not thread-safe. (However, since the GIL
exists, other features have grown to depend on the guarantees that it enforces.)
python解释器其实有多个版本
Cpython
Jpython
Pypypython
但是普遍使用的都是CPython解释器
在CPython解释器中GIL是一把互斥锁,用来阻止同一个进程下的多个线程的同时执行
同一个进程下的多个线程无法利用多核优势!!!

因为cpython中的内存管理不是线程安全的
内存管理(垃圾回收机制)
1.引用计数
2.标记清除
3.分代回收
重点:
1.GIL不是python的特点而是CPython解释器的特点
2.GIL是保证解释器级别的数据的安全
3.GIL会导致同一个进程下的多个线程的无法同时执行即无法利用多核优势(******)
4.针对不同的数据还是需要加不同的锁处理
5.解释型语言的通病:同一个进程下多个线程无法利用多核优势

* GIL与普通互斥锁的区别

案例:

from threading import Thread, Lock
import time

mutex = Lock()
money = 100


def task():
global money
# with mutex:
# tmp = money
# time.sleep(0.1)
# money = tmp -1
mutex.acquire()
tmp = money
time.sleep(0.1) # 只要你进入IO了 GIL会自动释放
money = tmp - 1
mutex.release()


if __name__ == '__main__':
t_list = []
for i in range(100):
t = Thread(target=task)
t.start()
t_list.append(t)
for t in t_list:
t.join()
print(money)

"""
100个线程起起来之后 要先去抢GIL
抢到的线程进入io, GIL会自动释放,但是我手上还有一个自己的互斥锁
其他线程虽然抢到了GIL但是抢不到互斥锁
最终GIL还是回到你的手上 你去操作数据
"""

* 同一个进程下的多线程无法利用多核优势,是不是就没有用了

1. cpu到底是用来做计算的,还是用来做I/O的?

2. 多cpu,意味着可以有多个核并行完成计算,所以多核提升的是计算性能

3. 每个cpu一旦遇到I/O阻塞,仍然需要等待,所以多核对I/O操作没什么用处

多线程是否有用要看具体情况:
单核:四个任务(IO密集型\计算密集型)
多核:四个任务(IO密集型\计算密集型)

分析: 我们有四个任务需要处理,处理方式肯定是要玩出并发的效果,解决方案可以是:
方案一:开启四个进程
方案二:一个进程下,开启四个线程
单核情况下,分析结果:
  如果四个任务是计算密集型,没有多核来并行计算,方案一徒增了创建进程的开销,方案二胜   
  如果四个任务是I/O密集型,方案一创建进程的开销大,且进程的切换速度远不如线程,方案二胜
多核情况下,分析结果:
  如果四个任务是计算密集型,多核意味着并行计算,在python中一个进程中同一时刻只有一个线程执行用不上多核,方案一胜   
  如果四个任务是I/O密集型,再多的核也解决不了I/O问题,方案二胜
结论:现在的计算机基本上都是多核,python对于计算密集型的任务开多线程的效率并不能带来多大性能上的提升,甚至不如串行(没有大量切换),但是,对于IO密集型的任务效率还是有显著提升的。


代码论证:
# 计算密集型
# from multiprocessing import Process
# from threading import Thread
# import os,time
#
#
# def work():
# res = 0
# for i in range(10000000):
# res *= i
#
# if __name__ == '__main__':
# l = []
# print(os.cpu_count()) # 获取当前计算机CPU个数
# start_time = time.time()
# for i in range(12):
# p = Process(target=work) # 1.4679949283599854
# t = Thread(target=work) # 5.698534250259399
# t.start()
# # p.start()
# # l.append(p)
# l.append(t)
# for p in l:
# p.join()
# print(time.time()-start_time)


# IO密集型
from multiprocessing import Process
from threading import Thread
import os, time


def work():
time.sleep(2)


if __name__ == '__main__':
l = []
print(os.cpu_count()) # 获取当前计算机CPU个数
start_time = time.time()
for i in range(4000):
# p = Process(target=work) # 21.149890184402466
t = Thread(target=work) # 3.007986068725586
t.start()
# p.start()
# l.append(p)
l.append(t)
for p in l:
p.join()
print(time.time() - start_time)

* 总结

多进程和多线程都有各自的优势并且我们后面在写项目的时候通常可以多进程下面再开设多线程这样的话既可以利用多核也可以减少资源消耗

posted @ 2020-04-25 22:23  臭弟弟d  阅读(119)  评论(0编辑  收藏  举报