异步爬虫

高性能异步爬虫
目的:在爬虫中使用异步实现高性能的数据爬取
异步爬虫的方式:
    - 多线程,多进程(不建议)
        好处:可以为相关阻塞的操作单独开启线程或者进程,阻塞操作就可以异步执行
        弊端:无法无限制的开启多线程或者多进程
    - 线程池 进程池
        好处:我们可以降低创建线程和销毁线程的频率,从而降低系统的开销
        弊端:无法无限制的开启多线程
    - 单线程 + 异步协程:
        好处:可以实现异步的效果,而且没有线程池和进程池的弊端
        弊端:代码编写相对复杂,需要使用到相关的异步框架(如Tornado的协程框架Tornado.gen)         
        event_loap:事件循环,相当于一个无限循环,我们可以把一些函数注册到这个事件循环上,当满足事件发生的时候,调用我们的事件处理函数。
        coroutine:协程对象,我们可以将协程对象注册到事件循环上,它会被事件循环调用。
        我们可以使用 async 关键字来定义一个协程,使用 await 关键字来挂起阻塞的操作。
        task:任务,他是对协程对象的进一步封装,它包含了任务的各个状态
        future:代表将来执行或还没有执行的任务,实际上和task没有本质区别
        async:定义一个协程
        await:用来挂起阻塞的异步调用           
import time
from multiprocessing.dummy import  Pool
# 使用线程池方式进行
stat_time = time.time()
def get_page(str):
    print("正在下载:",str)
    time.sleep(2)
    print("下载成功",str)
name_list = ['aa','bb','cc','dd']
#实例化一个线程池,包含4个线程
pool = Pool(4)
#将列表中每一个列表元素传递给get_page进行处理
pool.map(get_page,name_list)
end_time = time.time()
print(end_time-stat_time)
posted @ 2024-02-27 17:04  会秃头的小白  阅读(19)  评论(0编辑  收藏  举报