day 33 线程

1.线程理论
什么是线程:线程是cpu的最小执行单位(实体),进程是操作系统的数据资源分配单位
 
2.线程的两种创建方式(重点)
查看线程的pid:使用os模块查看id,线程的id应该是相同的
3.多线程和多进程的效率对比: 
IO密集型(遇到io切换提高代码效率)和计算密集型(切换降低代码效率):切换的时候需要保存状态和切换的时间
多线程用不了多核技术,遇到纯计算的时候,多线程回避多进程的运行时间高
import time
from threading import Thread
from multiprocessing import Process
 
def f1():
    # time.sleep(1) #io密集型以后遇到的情况一遍是这样的 
    # a= 1
    # a= a+1
    # print('xxx')
    pass
if __name__ == '__main__':
    #查看一个20个多线程执行20个任务的执行时间
    t_s_time = time.time()
    t_list =[]
    for i in range(20):
        t = Thread(target=f1,)
        t.start()
        t_list.append(t)
    [tt.join() for tt in t_list]
    t_e_time = time.time()
    t_dif_time = t_e_time - t_s_time
    #查看一下20个进程执行同样的任务的执行时间
    p_s_time = time.time()
    p_list = []
    for i in range(20):
        p = Process(target=f1, )
        p.start()
        p_list.append(p)
    [pp.join() for pp in t_list]
    p_e_time = time.time()
    p_dif_time = p_e_time - p_s_time
 
    print('多线程的执行时间:', t_dif_time)
    print('多进程的执行时间:', p_dif_time)
4.线程空间是不是隔离的:共享数据可以被更改,
import time
from threading import Thread
 
num =100
def f1(n):
    time.sleep(3)
    global num
    num= 3
    print('子线程的num',num)
 
 
if __name__ == '__main__':
    t = Thread(target=f1,args=(1,))
    t.start()
    t.join()
    print('主线程中的num',num)
 
#子线程的num 3
# 主线程中的num 3
5.守护线程
p.daemon =True  主进程的代码运行完毕,设置为守护进程的子进程会随之结束
6.锁(重点)
线程和进程的锁一样,都是牺牲了效率,保证了数据的安全
import time
from threading import Thread,Lock
 
num = 100
 
def f1(loc):
    loc.acquire()  #遇到锁,10个线程抢一个,一个进行更改数据,从并行状态更改成串行状态,牺牲的效率,保证了数据的安全
    global num   #global 只是声明变量,没有拿变量
    # num -= 1
    tmp = num
    tmp -=1
    time.sleep(0.2)
    num = tmp
    loc.release()  #解锁,把上一个更改的数据更改完成之后进行解锁,解锁之后,剩余9个在重新抢这个锁在重新更改num值,
 
 
if __name__ == '__main__':
    t_lock = Lock()
    t_list = []   #把10个线程放到一个列表,保证线程结束,主要的等待线程的结束
    for i in range(10):
        t = Thread(target=f1,args=(t_lock,))
        t.start()
        t_list.append(t)
    [tt.join() for tt in t_list]
    print('主线程的num',num)
 
#主线程的num 90
死锁现象(重点):
两个锁进行了嵌套,一个锁包含了另一个锁
主要在数据运算\分析的时候,注意到锁跟锁嵌套的关系,容易出现死锁现象,解决这个现象问题,出现了递归锁
 
递归锁(重点) Rlock
import time
from threading import Thread,Lock,RLock
 
def f1(locA,locB):
    print('xxxx')
    time.sleep(0.1)
    locA.acquire()
    print('f1>>>1号抢到了A锁')
    time.sleep(1)
    locB.acquire()
    print('f1>>>2号抢到了B锁')
    locB.release()
    locA.release()
 
def f2(locA,locB):
    print('22222')
    time.sleep(0.1)
    locB.acquire()
    print('f2>>>1号抢到了B锁')
    time.sleep(1)
    locA.acquire()
    print('f2>>>2号抢到了A锁')
    locB.release()
    locA.release()
 
if __name__ == '__main__':
    # locA = Lock()
    # locB = Lock()
    locA = locB = RLock()   #递归锁,维护一个计数器,acquire一次加1,release一次减1,
    t1 = Thread(target=f1, args=(locA, locB))
    t2 = Thread(target=f2, args=(locA, locB))
    t1.start()
    t2.start()
    # print(t1)
    # print(t2)
递归锁,维护一个
GIL锁(重点) 
解释器上添加的锁,互斥锁造成效率不高 
计算密集型:多进程可以应用多核技术,因为每个进程里面都有解释器程序.
计算密集型的任务,由于python多线程,不能应用多核,所以效率不高,几个线程串行执行了.
io密集型的任务:多线程的任务比多进程更有优势,
   流程:数据从硬盘发送到内存上,内存里面会加载进程到内存开辟的空间,开辟的空间里面包含cpython解释器 和py文件,cpython解释器里面包含:虚拟机和编译器,py文件里面里面的线程通过解释器的时候,解释器的GIL锁(全局解释器锁)变成串行
 
 
 
 
 
 
 

 

 
1.线程理论
什么是线程:线程是cpu的最小执行单位(实体),进程是操作系统的数据资源分配单位
 
2.线程的两种创建方式(重点)
查看线程的pid:使用os模块查看id,线程的id应该是相同的
3.多线程和多进程的效率对比: 
IO密集型(遇到io切换提高代码效率)和计算密集型(切换降低代码效率):切换的时候需要保存状态和切换的时间
多线程用不了多核技术,遇到纯计算的时候,多线程回避多进程的运行时间高
import time
from threading import Thread
from multiprocessing import Process
 
def f1():
    # time.sleep(1) #io密集型以后遇到的情况一遍是这样的 
    # a= 1
    # a= a+1
    # print('xxx')
    pass
if __name__ == '__main__':
    #查看一个20个多线程执行20个任务的执行时间
    t_s_time = time.time()
    t_list =[]
    for i in range(20):
        t = Thread(target=f1,)
        t.start()
        t_list.append(t)
    [tt.join() for tt in t_list]
    t_e_time = time.time()
    t_dif_time = t_e_time - t_s_time
    #查看一下20个进程执行同样的任务的执行时间
    p_s_time = time.time()
    p_list = []
    for i in range(20):
        p = Process(target=f1, )
        p.start()
        p_list.append(p)
    [pp.join() for pp in t_list]
    p_e_time = time.time()
    p_dif_time = p_e_time - p_s_time
 
    print('多线程的执行时间:', t_dif_time)
    print('多进程的执行时间:', p_dif_time)
4.线程空间是不是隔离的:共享数据可以被更改,
import time
from threading import Thread
 
num =100
def f1(n):
    time.sleep(3)
    global num
    num= 3
    print('子线程的num',num)
 
 
if __name__ == '__main__':
    t = Thread(target=f1,args=(1,))
    t.start()
    t.join()
    print('主线程中的num',num)
 
#子线程的num 3
# 主线程中的num 3
5.守护线程
p.daemon =True  主进程的代码运行完毕,设置为守护进程的子进程会随之结束
6.锁(重点)
线程和进程的锁一样,都是牺牲了效率,保证了数据的安全
import time
from threading import Thread,Lock
 
num = 100
 
def f1(loc):
    loc.acquire()  #遇到锁,10个线程抢一个,一个进行更改数据,从并行状态更改成串行状态,牺牲的效率,保证了数据的安全
    global num   #global 只是声明变量,没有拿变量
    # num -= 1
    tmp = num
    tmp -=1
    time.sleep(0.2)
    num = tmp
    loc.release()  #解锁,把上一个更改的数据更改完成之后进行解锁,解锁之后,剩余9个在重新抢这个锁在重新更改num值,
 
 
if __name__ == '__main__':
    t_lock = Lock()
    t_list = []   #把10个线程放到一个列表,保证线程结束,主要的等待线程的结束
    for i in range(10):
        t = Thread(target=f1,args=(t_lock,))
        t.start()
        t_list.append(t)
    [tt.join() for tt in t_list]
    print('主线程的num',num)
 
#主线程的num 90
死锁现象(重点):
两个锁进行了嵌套,一个锁包含了另一个锁
主要在数据运算\分析的时候,注意到锁跟锁嵌套的关系,容易出现死锁现象,解决这个现象问题,出现了递归锁
 
递归锁(重点) Rlock
import time
from threading import Thread,Lock,RLock
 
def f1(locA,locB):
    print('xxxx')
    time.sleep(0.1)
    locA.acquire()
    print('f1>>>1号抢到了A锁')
    time.sleep(1)
    locB.acquire()
    print('f1>>>2号抢到了B锁')
    locB.release()
    locA.release()
 
def f2(locA,locB):
    print('22222')
    time.sleep(0.1)
    locB.acquire()
    print('f2>>>1号抢到了B锁')
    time.sleep(1)
    locA.acquire()
    print('f2>>>2号抢到了A锁')
    locB.release()
    locA.release()
 
if __name__ == '__main__':
    # locA = Lock()
    # locB = Lock()
    locA = locB = RLock()   #递归锁,维护一个计数器,acquire一次加1,release一次减1,
    t1 = Thread(target=f1, args=(locA, locB))
    t2 = Thread(target=f2, args=(locA, locB))
    t1.start()
    t2.start()
    # print(t1)
    # print(t2)
递归锁,维护一个
GIL锁(重点) 
解释器上添加的锁,互斥锁造成效率不高 
计算密集型:多进程可以应用多核技术,因为每个进程里面都有解释器程序.
计算密集型的任务,由于python多线程,不能应用多核,所以效率不高,几个线程串行执行了.
io密集型的任务:多线程的任务比多进程更有优势,
   流程:数据从硬盘发送到内存上,内存里面会加载进程到内存开辟的空间,开辟的空间里面包含cpython解释器 和py文件,cpython解释器里面包含:虚拟机和编译器,py文件里面里面的线程通过解释器的时候,解释器的GIL锁(全局解释器锁)变成串行
 
 
 
 
 
 
 
 
posted @ 2019-01-14 19:47  杨洪涛  阅读(119)  评论(0编辑  收藏  举报