Python 10:线程、进程、协程、异步io
1、概念
2、线程
3、进程
4、协程
5、事件件驱动模型
6、异步io
7、作业
一、概念
1、进程:
程序并不能单独运行,只有将程序装载到内存中,系统为它分配资源才能运行,而这种执行的程序就称之为进程。
(程序以一个整体的形式暴露给操作系统。里面包含对各种资源的调用,内存的管理,网络接口的调用等,即对各种资源管理的集合)
程序和进程的区别就在于:程序是指令的集合,它是进程运行的静态描述文本;进程是程序的一次执行活动,属于动态概念。
启动一个进程会自动启动一个线程,进程里的第一个线程就是主线程,主线程可以创建子线程
2、线程:
线程是操作系统能够进行运算调度的最小单位,是一串指令的集合。
它被包含在进程之中,是进程中的实际运作单位。
一条线程指的是进程中一个单一顺序的控制流,一个进程中可以并发多个线程,每条线程并行执行不同的任务
进程要操作cpu,至少创建一个线程
所有在同一个进程里的线程共享同一块内存空间
3、区别:
线程共享内存空间,进程内存是独立的
多个线程可以直接访问同一个进程的数据,多个子进程之间数据是相互独立的
同一个进程的线程之间可以直接交流,两个进程想通信必须通过一个中间代理来实现
创建新的线程很简单,创建新的进程需要对其父进程进行一次克隆
一个线程可以控制和操作同一进程里的其他线程,但是进程只能操作子进程
对于主线程的修改有可能会影响到其他线程的运行,但是对一个父进程的修改不会影响其他子进程
二、线程
1、调用
1 import threading 2 import time 3 def run(n): 4 print("task",n) 5 time.sleep(2) 6 t1 = threading.Thread(target=run,args=("t1",)) 7 t2 = threading.Thread(target=run,args=("t2",)) 8 t1.start() #并行 9 t2.start() 10 # run("t1") #未采用多线程:串行 11 # run("t2")
1 import threading 2 class MyThread(threading.Thread): 3 def __init__(self,n): 4 super(MyThread,self).__init__() 5 self.n = n 6 def run(self): 7 print("running task",self.n) 8 t1 = MyThread("t1") 9 t2 = MyThread("t2") 10 t1.start() 11 t2.start()
2、 Join 和 Daemon
1 import threading 2 import time 3 def run(n): 4 print("task",n,threading.current_thread()) #<Thread(Thread-1, started 1516)> 5 time.sleep(2) 6 start_time = time.time() 7 t_objs = [] 8 for i in range(10): 9 t = threading.Thread(target=run,args=("t-%s"%i,)) 10 t.start() 11 t_objs.append(t) 12 for t in t_objs: 13 t.join() #在主线程里等待子线程结果 14 print("who:",threading.current_thread(),threading.active_count()) #打印当前线程 <_MainThread(MainThread, started 6568)> 和当前活动线程数 15 print("cost:",time.time() - start_time) #为加join主线程与子线程并行,不会等子线程运行结束
1 import threading 2 import time 3 def run(n): 4 print("task",n,threading.current_thread()) #<Thread(Thread-1, started 1516)> 5 time.sleep(2) 6 start_time = time.time() 7 t_objs = [] 8 for i in range(10): 9 t = threading.Thread(target=run,args=("t-%s"%i,)) 10 t.setDaemon(True) #把当前线程设置为守护线程(主进程结束时不会等待守护线程执行完毕) 11 t.start() #一定要在执行之前设置 12 t_objs.append(t) 13 # for t in t_objs: 14 # t.join() #在主线程里等待子线程结果 15 print("who:",threading.current_thread(),threading.active_count()) #打印当前线程 <_MainThread(MainThread, started 6568)> 和当前活动线程数 16 print("cost:",time.time() - start_time) #为加join主线程与子线程并行,不会等子线程运行结束 17 18 #程序正常退出会等待所有进程执行完毕(守护进程除外)
3、GIL
全局解释器锁 :无论你启多少个线程,你有多少个cpu, Python在执行的时候在同一时刻只允许一个线程运行。
4、线程锁(互斥锁Mutex)
一个进程下可以启动多个线程,多个线程共享父进程的内存空间,也就意味着每个线程可以访问同一份数据,此时,如果2个线程同时要修改同一份数据,有可能线程1还没修改完成但是线程2已经修改完成,为了避免线程自己在还没改完的时候别人也来修改此数据,可以给这个数据加一把锁, 这样其它线程想修改此数据时就必须等待你修改完毕并把锁释放掉后才能再访问此数据。
1 import threading 2 def addNum(): 3 lock.accquire() #加锁:只允许一个线程修改数据,在这里把线程变成了串行 4 global num #在每个线程中都获取这个全局变量 5 print('--get num:',num ) 6 num +=1 #对此公共变量进行+1操作 7 lock.release() #释放锁 8 lock = threading.Lock() #申请锁 9 num = 0 #设定一个全局变量 10 thread_list = [] 11 for i in range(10): 12 t = threading.Thread(target=addNum) 13 t.start() 14 thread_list.append(t) 15 for t in thread_list: #等待所有线程执行完毕 16 t.join() 17 print('final num:', num )
5、递归锁
就是在一个大锁中还要再包含子锁,即有多个锁同时存在,当释放锁的时候系统自己混乱对不上号
递归锁的存在让程序能分辨出每个锁所对应的钥匙
1 import threading,time 2 3 def run1(): 4 print("grab the first part data") 5 lock.acquire() 6 global num 7 num +=1 8 lock.release() 9 return num 10 def run2(): 11 print("grab the second part data") 12 lock.acquire() 13 global num2 14 num2+=1 15 lock.release() 16 return num2 17 def run3(): 18 lock.acquire() 19 res = run1() 20 print('--------between run1 and run2-----') 21 res2 = run2() 22 lock.release() 23 print(res,res2) 24 25 26 if __name__ == '__main__': 27 28 num,num2 = 0,0 29 lock = threading.RLock() #递归锁() 30 for i in range(10): 31 t = threading.Thread(target=run3) 32 t.start() 33 34 while threading.active_count() != 1: 35 print(threading.active_count()) 36 else: 37 print('----all threads done---') 38 print(num,num2)
6、Semaphore(信号量)
互斥锁 :同时只允许一个线程更改数据,而Semaphore是同时只允许一定数量的线程更改数据
1 import threading,time 2 3 def run(n): 4 semaphore.acquire() 5 time.sleep(1) 6 print("run the thread: %s\n" %n) 7 semaphore.release() 8 9 semaphore = threading.BoundedSemaphore(5) #最多允许5个线程同时运行 10 for i in range(20): 11 t = threading.Thread(target=run,args=(i,)) 12 t.start() 13 while threading.active_count() != 1: 14 pass 15 else: 16 print('----all threads done---')
7、event(线程交互)
通过Event来实现两个或多个线程间的交互
1 import time 2 import threading 3 4 event = threading.Event() 5 def light(): 6 count = 0 7 event.set() 8 while True: 9 if count > 5 and count <= 10: #变成红灯 10 event.clear() #清空标志位 11 print("\033[41;1mred light is on ...\033[0m") 12 elif count > 10: 13 event.set() #变绿灯 14 count = 0 15 else: 16 print("\033[42;1mgreen light is on ...\033[0m") 17 time.sleep(1) 18 count += 1 19 20 def car(name): 21 while True: 22 if event.is_set(): #判断是否设置了标志位 23 print("[%s] running ..."%name) 24 time.sleep(1) 25 else: 26 print("[%s] see red light ,waiting..."%name) 27 event.wait() 28 print("[%s] green light is on start going ..."%name) 29 30 light = threading.Thread(target=light,) 31 light.start() 32 car1 = threading.Thread(target=car,args=("car_1",)) 33 car1.start()
8、queue队列
import queue q = queue.Queue() #先入先出队列 # q = queue.Queue(maxsize=2) #队列接受最大容量 q.put("a") #往队列里放入数据 q.put("b") q.put("c") print(q.qsize() ) #队列大小 q.get() #从队列里取数据 q.get() qq = queue.LifoQueue() #后进先出对列 qq.put("a") #往队列里放入数据 qq.put("b") qq.put("c") print(qq.get()) #c qqq = queue.PriorityQueue() #存储数据时可设置优先级的队列(vip) qqq.put((9,"a")) #放入元组,队列将按照元组第一个值进行排序 qqq.put((5,"b")) qqq.put((7,"c")) qqq.put((3,"d")) print(qqq.get()) #(3, 'd') print(qqq.get()) #(5, 'b')
9、生产者消费者模型
1 import threading,time 2 import queue 3 def producer(): 4 count = 1 5 while True: 6 q.put("骨头 %s" % count ) 7 print("生产了骨头%s"%count) 8 count += 1 9 time.sleep(2) 10 def consumer(n): 11 # while q.qsize() >0: 12 while True: 13 print("%s 取到" %n, q.get()) 14 time.sleep(1) 15 16 q = queue.Queue(maxsize=10) 17 p = threading.Thread(target=producer,) 18 p.start() 19 c1 = threading.Thread(target=consumer,args=("aa",)) 20 c1.start() 21 c2 = threading.Thread(target=consumer,args=("bb",)) 22 c2.start()
三、进程
在python中由于GIL的存在,无论你启多少个线程,你有多少个cpu, Python在执行的时候在同一时刻只允许一个线程运行
所以python的多线程不适合cpu密集操作型的任务,适合io密集型的任务(io操作不占用cpu、计算占用cpu)
注意:如果在windows中启动多进程必须采用:if __name__ =="__main__"(区分是自己主动执行还是被其他程序调用)
1、调用
1 import multiprocessing,threading 2 import time 3 4 def run(name): 5 time.sleep(1) 6 print("hello",name) 7 t = threading.Thread(target=thread_run()) 8 t.start() 9 10 def thread_run(): 11 print(threading.get_ident()) 12 13 if __name__ == '__main__': 14 for i in range(10): 15 p = multiprocessing.Process(target=run,args=("aa",)) 16 p.start()
2、父进程、子进程:每一个进程都是由父进程启动的
1 from multiprocessing import Process 2 import os 3 def info(title): 4 print(title) 5 print('module name:', __name__) 6 print('parent process:', os.getppid()) 7 print('process id:', os.getpid()) 8 print("\n\n") 9 def f(name): 10 info('\033[31;1mfunction f\033[0m') 11 print('hello', name) 12 if __name__ == '__main__': 13 info('\033[32;1mmain process line\033[0m') 14 p = Process(target=f, args=('bob',)) 15 p.start() 16 p.join()
3、进程间通信:
3.1进程间数据的传递
1 from multiprocessing import Process, Queue 2 def f(q): 3 q.put([42, None, 'hello']) 4 if __name__ == '__main__': 5 q = Queue() 6 p = Process(target=f, args=(q,)) 7 p.start() 8 print(q.get()) # prints "[42, None, 'hello']" 9 p.join()
1 from multiprocessing import Process, Pipe 2 3 def f(conn): 4 conn.send([42, None, 'hello from child']) 5 print(conn.recv()) 6 conn.close() 7 8 if __name__ == '__main__': 9 parent_conn, child_conn = Pipe() #管道一生成就会产生两个返回对象 10 p = Process(target=f, args=(child_conn,)) 11 p.start() 12 print(parent_conn.recv()) # prints "[42, None, 'hello']" 13 parent_conn.send("hello from parent") 14 p.join()
3.2进程间数据的共享
1 from multiprocessing import Process, Manager 2 import os 3 def f(d, l): 4 d[os.getpid()] = os.getpid() 5 l.append(os.getpid()) 6 print(l) 7 8 if __name__ == '__main__': 9 with Manager() as manager: 10 d = manager.dict() #生成一个字典可在多个进程间传递 11 l = manager.list(range(5)) #生成一个列表可在多个进程间传递 12 p_list = [] 13 for i in range(10): 14 p = Process(target=f, args=(d, l)) 15 p.start() 16 p_list.append(p) 17 for res in p_list: #等待结果 18 res.join() 19 print(d) 20 print(l)
4、进程锁:因为屏幕是共享的,多个进程可能同时使用屏幕输出,防止输出错乱而加锁
1 from multiprocessing import Process, Lock 2 3 def f(l, i): 4 l.acquire() 5 try: 6 print('hello world', i) 7 finally: 8 l.release() 9 if __name__ == '__main__': 10 lock = Lock() 11 for num in range(10): 12 Process(target=f, args=(lock, num)).start()
5、进程池
1 from multiprocessing import Process,Pool 2 import time 3 import os 4 def Foo(i): 5 time.sleep(2) 6 print("in process",os.getpid()) 7 return i+100 8 9 def Bar(arg): 10 print('-->exec done:',arg) 11 if __name__ == "__main__": 12 pool = Pool(5) 13 for i in range(10): 14 pool.apply_async(func=Foo, args=(i,),callback=Bar) #apply_async:并行 callback=回调(主进程回调,在主进程中执行) 15 #pool.apply(func=Foo, args=(i,)) #apply:串行 16 print('end') 17 pool.close() #必须先close在join 18 pool.join()#进程池中进程执行完毕后再关闭,如果注释,那么程序直接关闭。
四、协程
协程,又称微线程,纤程。英文名Coroutine。一句话说明什么是线程:协程是一种用户态的轻量级线程(CUP根本不知道他的存在)
协程拥有自己的寄存器上下文和栈。协程调度切换时,将寄存器上下文和栈保存到其他地方,在切回来的时候,恢复先前保存的寄存器上下文和栈。
优点:
无需线程上下文切换的开销
无需原子操作锁定及同步的开销
方便切换控制流,简化编程模型
高并发+高扩展性+低成本:一个CPU支持上万的协程都不是问题。所以很适合用于高并发处理。
缺点:
无法利用多核资源:协程的本质是个单线程,它不能同时将 单个CPU 的多个核用上,协程需要和进程配合才能运行在多CPU上.当然我们日常所编写的绝大部分应用都没有这个必要,除非是cpu密集型应用。
进程阻塞(Blocking)操作(如IO时)会阻塞掉整个程序
协程一个标准定义:
1、必须在只有一个单线程里实现并发
2、修改共享数据不需加锁
3、用户程序里自己保存多个控制流的上下文栈
4、一个协程遇到IO操作自动切换到其它协程
greenlet
1 #greenlet 自动版的yield 2 from greenlet import greenlet 3 def test1(): 4 print(12) 5 gr2.switch() 6 print(34) 7 gr2.switch() 8 def test2(): 9 print(56) 10 gr1.switch() 11 print(78) 12 gr1 = greenlet(test1) 13 gr2 = greenlet(test2) 14 gr1.switch()
greenlet虽然满足了协程定义前3个条件但是没有遇到IO操作自动切换功能。
gevent
1 import gevent 2 3 def func1(): 4 print('run in func1') 5 gevent.sleep(2) 6 print('run in func1_1') 7 def func2(): 8 print('run in func2') 9 gevent.sleep(1) 10 print('run in func2_2') 11 def func3(): 12 print('run in func3') 13 gevent.sleep(1.5) 14 print('run in func3_3') 15 gevent.joinall([ 16 gevent.spawn(func1), 17 gevent.spawn(func2), 18 gevent.spawn(func3), 19 ])
python可以通过gevent实现并发同步或异步编程,在gevent中用到的主要模式是Greenlet, 它是以C扩展模块形式接入Python的轻量级协程。
举个栗子
1 from gevent import monkey #让gevent知道url在进行io操作 2 import gevent 3 from urllib.request import urlopen 4 5 monkey.patch_all() #把当前程序的所有io操作给我单独的做上标记 6 def f(url): 7 print('GET: %s' % url) 8 resp = urlopen(url) 9 data = resp.read() 10 f = open('url.html','wb') 11 f.write(data) 12 f.close() 13 print('%d bytes received from %s.' % (len(data), url)) 14 15 gevent.joinall([ 16 gevent.spawn(f, 'https://www.baidu.com/'), 17 gevent.spawn(f, 'https://www.yahoo.com/'), 18 gevent.spawn(f, 'https://github.com/'), 19 ])
五、事件驱动模型
通常,我们写服务器处理模型的程序时,有以下几种模型:
1、每收到一个请求,创建一个新的进程,来处理该请求:创建新的进程的开销比较大,所以,会导致服务器性能比较差,但实现比较简单。
2、每收到一个请求,创建一个新的线程,来处理该请求:要涉及到线程的同步,有可能会面临死锁等问题
3、每收到一个请求,放入一个事件列表,让主进程通过非阻塞I/O方式来处理请求:在写应用程序代码时,逻辑比前面两种都复杂
综合考虑各方面因素,一般普遍认为第3种方式是大多数网络服务器采用的方式
目前大部分的UI编程都是事件驱动模型,如很多UI平台都会提供onClick()事件。事件驱动模型大体思路如下:
1、有一个事件(消息)队列;
2、鼠标按下时,往这个队列中增加一个点击事件(消息);
3、有个循环,不断从队列取出事件,根据不同的事件,调用不同的函数,如onClick()、onKeyDown()等;
4、事件(消息)一般都各自保存各自的处理函数指针,这样,每个消息都有独立的处理函数;
2、编程范式:
事件驱动编程:这里程序的执行流由外部事件来决定。它的特点是包含一个事件循环,当外部事件发生时使用回调机制来触发相应的处理。
在事件驱动模式中,任务交错执行,但仍然在一个单独的线程控制中。当处理I/O或者其他昂贵的操作时,注册一个回调到事件循环中,然后当I/O操作完成时继续执行。回调描述了该如何处理某个事件。事件循环轮询所有的事件,当事件到来时将它们分配给等待处理事件的回调函数。这种方式让程序尽可能的得以执行而不需要用到额外的线程。事件驱动型程序比多线程程序更容易推断出行为,因为程序员不需要关心线程安全问题。
单线程编程:
在单线程模式中,任务按照顺序执行。如果某个任务因为I/O而阻塞,其他所有的任务都必须等待,直到它完成之后它们才能依次执行。这种明确的执行顺序和串行化处理的行为是很容易推断得出的。如果任务之间并没有互相依赖的关系,但仍然需要互相等待的话这就使得程序不必要的降低了运行速度。
多线程编程:
在多线程模式中,任务分别在独立的线程中执行。这些线程由操作系统来管理,在多处理器系统上可以并行处理,或者在单处理器系统上交错执行。这使得当某个线程阻塞在某个资源的同时其他线程得以继续执行。与完成类似功能的同步程序相比,这种方式更有效率,但程序员必须写代码来保护共享资源,防止其被多个线程同时访问。多线程程序更加难以推断,因为这类程序不得不通过线程同步机制如锁、可重入函数、线程局部存储或者其他机制来处理线程安全问题,如果实现不当就会导致出现微妙且令人痛不欲生的bug。
当我们面对如下的环境时,事件驱动模型通常是一个好的选择:
1、程序中有许多任务,而且io调用较多
2、任务之间高度独立(因此它们不需要互相通信,或者等待彼此)
3、在等待事件到来时,某些任务会阻塞。
网络应用程序通常都有上述这些特点,这使得它们能够很好的契合事件驱动编程模型。
六、异步IO
1、io模式
对于一次IO访问(以read举例),数据会先被拷贝到操作系统内核的缓冲区中,然后才会从操作系统内核的缓冲区拷贝到应用程序的地址空间。当一个read操作发生时,它会经历两个阶段:
1. 等待数据准备 (Waiting for the data to be ready)
2. 将数据从内核拷贝到进程中 (Copying the data from the kernel to the process)
正式因为这两个阶段,linux系统产生了下面五种网络模式的方案。
阻塞 I/O(blocking IO)
非阻塞 I/O(nonblocking IO)
I/O 多路复用( IO multiplexing)
信号驱动 I/O( signal driven IO)
异步 I/O(asynchronous IO)
2、I/O 多路复用之select、poll、epoll
select,poll,epoll都是IO多路复用的机制。I/O多路复用就是通过一种机制,一个进程可以监视多个描述符,一旦某个描述符就绪(一般是读就绪或者写就绪),能够通知程序进行相应的读写操作。但select,poll,epoll本质上都是同步I/O,因为他们都需要在读写事件就绪后自己负责进行读写,也就是说这个读写过程是阻塞的,而异步I/O则无需自己负责进行读写,异步I/O的实现会负责把数据从内核拷贝到用户空间。
1 import select 2 import socket 3 import queue 4 server = socket.socket() 5 server.bind(("localhost",9000)) 6 server.listen(5) 7 server.setblocking(False) 8 msg_dic = {} 9 inputs = [server,] 10 outputs =[] #r 11 while True: 12 readable,writeable,exceptional = select.select(inputs,outputs,inputs) 13 print(readable,writeable,exceptional) 14 for r in readable: 15 if r is server: #代表来了一个新连接 16 conn,addr = server.accept() 17 print("来了个新连接",addr) 18 conn.setblocking(0) 19 inputs.append(conn) #因为这个新建立的连接还没发数据过来,现在就接收的话。程序就会报错了, 20 #所以要想实现这个客户端发数据来时server端能知道,就需要让select在检测这个conn 21 msg_dic[conn] = queue.Queue() #初始化一个队列,后面存要返回给客户端的数据 22 else: 23 try: 24 data = r.recv(1024) 25 if data: 26 print("收到数据",data) 27 msg_dic[r].put(data) 28 outputs.append(r) #放入返回的连接队列里 29 else:#如果收不到data代表代表客户端断开了 30 print("客户端断开了",r) 31 if r in outputs: 32 outputs.remove(r) #清理已断开的连接 33 inputs.remove(r) #清理已断开的连接 34 del msg_dic[r] ##清理已断开的连接 35 except ConnectionResetError as e: 36 print("客户端断开了",r) 37 if r in outputs: 38 outputs.remove(r) #清理已断开的连接 39 inputs.remove(r) #清理已断开的连接 40 del msg_dic[r] ##清理已断开的连接 41 for w in writeable: #要返回给客户端的连接列表 42 data_to_client = msg_dic[w].get() 43 w.send(data_to_client) #给客户返回原数据 44 outputs.remove(w) #确保下次循环的时候,writeable不返回这个已经处理完的连接 45 for e in exceptional: #连接断开 46 if e in outputs: 47 outputs.remove(e) 48 inputs.remove(e) 49 del msg_dic[e]
1 import socket 2 3 HOST = 'localhost' 4 PORT = 9000 5 s = socket.socket(socket.AF_INET,socket.SOCK_STREAM) 6 s.connect((HOST,PORT)) 7 while True: 8 msg = bytes(input(">>:"),encoding="utf8") 9 s.sendall(msg) 10 data = s.recv(1024) 11 print("received",data) 12 13 s.close()
3、selectors模块
1 import selectors 2 import socket 3 sel = selectors.DefaultSelector() 4 def accept(sock, mask): 5 conn, addr = sock.accept() # Should be ready 6 print('accepted', conn, 'from', addr) 7 conn.setblocking(False) 8 sel.register(conn, selectors.EVENT_READ, read) #新连接注册read回调函数 9 def read(conn, mask): 10 data = conn.recv(1024) # Should be ready 11 if data: 12 print('echoing', repr(data), 'to', conn) 13 conn.send(data) # Hope it won't block 14 else: 15 print('closing', conn) 16 sel.unregister(conn) 17 conn.close() 18 sock = socket.socket() 19 sock.bind(('localhost', 8000)) 20 sock.listen(100) 21 sock.setblocking(False) 22 sel.register(sock, selectors.EVENT_READ, accept) #只要来新连接就调用accept 23 while True: 24 events = sel.select() #默认阻塞,有活动链接就返回活动的连接列表 25 for key, mask in events: 26 callback = key.data #调用accept 27 callback(key.fileobj, mask) #key.fileobj = 文件句柄
七、作业
题目:IO多路复用版FTP
需求:
1、实现文件上传及下载功能
2、支持多连接并发传文件
3、使用select or selectors
selector版
1 import os,sys,json,time 2 import selectors 3 import socket 4 import errno 5 6 BASE_DIR = os.path.dirname(os.path.dirname(os.path.abspath(__file__))) 7 sys.path.append(BASE_DIR) 8 sel = selectors.DefaultSelector() 9 class selectors_ftp(object): 10 def __init__(self,ip,port): 11 self.sock = socket.socket() 12 self.sock.bind((ip,port)) 13 self.sock.listen(500) 14 self.sock.setblocking(False) 15 self.start(self.sock) 16 17 def start(self,sock): 18 sel.register(sock, selectors.EVENT_READ, self.accept) 19 while True: 20 events = sel.select() 21 for key, mask in events: 22 callback = key.data 23 callback(key.fileobj,mask) 24 def accept(self,sock,mask): 25 self.conn, self.addr = sock.accept() 26 print( "有新连接:",self.addr) 27 self.conn.setblocking(False) 28 sel.register(self.conn, selectors.EVENT_READ, self.read) 29 30 def read(self,conn,mask): 31 try: 32 print("start..") 33 time.sleep(2) 34 self.data = conn.recv(1024) 35 if self.data: 36 self.data_receive = json.loads(self.data.decode()) 37 self.action = self.data_receive['action'] 38 self.file_name = self.data_receive['file_name'] 39 self.file_size = self.data_receive['size'] 40 print('有新的数据:',self.data_receive) 41 if hasattr(self,self.action): 42 func = getattr(self,self.action) 43 func(self.conn,mask) 44 else: 45 print('连接断开!') 46 sel.unregister(conn) 47 conn.close() 48 except ConnectionResetError as e: 49 print('连接断开!',e) 50 sel.unregister(conn) 51 conn.close() 52 53 def put(self,conn,mask): 54 self.conn.send("收到文件,正在上传...".encode()) 55 file_object = open((self.file_name+"_new"), 'wb') 56 received_size = 0 57 while received_size < self.file_size: 58 try: 59 if self.file_size - received_size > 1024: 60 size = 1024 61 elif self.file_size < 1024: 62 size = self.file_size 63 else: 64 size = self.file_size - received_size 65 recv_data = conn.recv(size) 66 received_size += len(recv_data) 67 file_object.write(recv_data) 68 except BlockingIOError as e: 69 if e.errno != errno.EAGAIN: # errno.EAGAIN 缓冲区满 70 raise 71 else: 72 time.sleep(0.1) 73 else: 74 file_object.close() 75 print("上传完毕") 76 conn.send("文件上传完毕".encode()) 77 78 def get(self,conn,mask): 79 while True: 80 if os.path.isfile(self.file_name): 81 try: 82 file_size = os.path.getsize(self.file_name) 83 self.conn.send(str(file_size).encode()) 84 client_file_size = 0 85 with open(self.file_name, "rb") as file_obj: 86 for line in file_obj: 87 client_file_size += len(line) # 记录已经传送的文件大小 88 self.conn.sendall(line) 89 file_obj.close() 90 if client_file_size >= int(file_size): # 文件传送完毕 91 break 92 except BlockingIOError as e: 93 if e.errno != errno.EAGAIN: # errno.EAGAIN 缓冲区满 等待下次发送 94 raise 95 else: 96 time.sleep(0.1) # 等待进行下一次读取 97 else: 98 conn.send(b'error') 99 break 100 101 s = selectors_ftp("localhost",8000)
1 import os,sys,json,time 2 import socket 3 4 BASE_DIR = os.path.dirname(os.path.dirname(os.path.abspath(__file__))) 5 sys.path.append(BASE_DIR) 6 7 class selectors_client(object): 8 def __init__(self,ip,port): 9 self.client = socket.socket() 10 self.client.connect((ip, port)) 11 self.start() 12 def start(self): 13 print('login in') 14 while True: 15 try: 16 self.sending_msg_list = [] 17 self.sending_msg = input('>>>:') 18 self.sending_msg_list = self.sending_msg.split() 19 self.action = self.sending_msg_list[0] 20 if len(self.sending_msg_list) == 0: 21 continue 22 elif len(self.sending_msg_list) == 1: 23 if self.sending_msg_list[0] == "exit": 24 print('logout') 25 break 26 else: 27 print('command not found' ) 28 else: 29 try: 30 self.file_name = self.sending_msg_list[1] 31 except IndexError: 32 pass 33 if hasattr(self,self.action): 34 func = getattr(self,self.action) 35 func() 36 else: 37 print( 'command not found') 38 except ConnectionResetError and ConnectionRefusedError and OSError and IndexError as e: 39 print( e,'Restart client') 40 selectors_client().start() 41 def put(self): 42 if os.path.isfile(self.file_name): 43 self.file_size = os.path.getsize(self.file_name) 44 data_header = { 45 "action": "put", 46 "file_name": self.file_name, 47 "size": self.file_size} 48 self.client.send(json.dumps(data_header).encode()) 49 print(self.client.recv(1024).decode()) 50 with open(self.file_name, 'rb') as file_object: 51 for line in file_object: 52 self.client.send(line) 53 file_object.close() 54 print(self.client.recv(1024).decode()) 55 else: 56 print('No such file') 57 def get(self): 58 data_header = { 59 "action": "get", 60 "file_name": self.file_name, 61 "size": 0} 62 self.client.send(json.dumps(data_header).encode()) 63 self.data = self.client.recv(1024) 64 if self.data.decode() == 'error': 65 print('No such file') 66 else: 67 print("文件大小:", self.data.decode()) 68 file_object = open((self.file_name + '_new' ), 'wb') 69 received_size = 0 70 file_size = int(self.data.decode()) 71 while received_size < file_size: 72 if file_size - received_size > 1024: 73 size = 1024 74 elif file_size < 1024: 75 size = file_size 76 else: 77 size = file_size - received_size 78 recv_data = self.client.recv(size) 79 received_size += len(recv_data) 80 file_object.write(recv_data) 81 else: 82 file_object.flush() 83 file_object.close() 84 time.sleep(0.1) 85 print("File get done File size is :", file_size) 86 87 c = selectors_client("localhost",8000)