Python迭代器,生成器(iterator,generator)详解
1 2 3 | # collections是一个包含了许多类型的module from collections import Iterator,Iterable,Generator # python3.6之后直接从typing中import上述类型即可 |
可迭代对象iterable
可迭代的对象的意思是就是说这个实体是可迭代的,例如字符、列表、元组、字典、迭代器等等,可以用for ... in进行循环,可以使用for循环迭代的标志是内部实现了__iter__方法。
可迭代对象仅含有__iter__的内部方法,你可以通过封装next()方法(python3中为__next__())来将其做成一个迭代器,以生成器(generator,特殊的函数类型的迭代器)为例,你可以通过yield关键字来做一个迭代器,只不过名字被叫做generator,yield可以看做就是为对象添加了__iter__方法和指示下一次迭代的next()/__next__()方法。
使用isinstance(实体名,Iterable)可判断是否为可迭代对象
迭代器iterator
迭代器就是实现了迭代方式的容器,iterable对象一般只能按默认的正序方式进行迭代,你可以通过为其添加__next__()/next()方法来定制不同的迭代方式,这样通过next方法封装起来的迭代对象生成器就被称作迭代器。与iterable相比iterator多了一个next()方法,next()方法用于定制for循环时具体的返回值及返回顺序以及处理StopIteration异常等。
iterator必定是iterable的,因此其必然含有__iter__方法,此方法保证了iterator是可以迭代的,个人认为可以将__iter__()方法看做迭代器的入口,此入口告诉python对象是可for循环的,当你还为class定义了__next__方法时python的for循环会直接调用__next__()方法进行迭代,因此对于实现了__next__方法的迭代器来讲__iter__方法是一个不可或缺的鸡肋方法,不可或缺是因为他是可迭代的标识,鸡肋是因为他不会实质性的起作用,虽然他是迭代器的入口但却不是迭代的起始点,也因此iterator的__iter__方法可以随意返回self或者self.属性或者None。
使用isinstance(实体名,Iterator)可判断是否为迭代器
生成器generator
generator对象是一种特殊的iterator函数,它会在执行过程中保存执行的上下文环境,并在下次循环中从yield语句后继续执行,生成器的标志就是yield关键字。
generator不需要抛出StopIteration异常(你可以看做yield已经在内部实现了StopIteration跳出循环),函数并没有将序列项一次生成,所以generator在实现上可以有无穷个元素,而不需要无穷的存储空间,这在内存优化方面很有用处。
使用isinstance(实体名,Generator)可判断是否为生成器。
生成器的创建办法有两种:
- 通过函数创建,称作generator function
- 通过推导式创建,例如g=(x*2 for x in range(10)),称作generator expression
__iter__()和iter()
python有一个built-in函数iter()用来从序列对象,如String, list,tuple中生成迭代器。
__iter__()方法是python的魔法方法,如果对象是iterator那么for循环时python会直接调用__next__()方法拿到循环的下一个值,直到遇到StopIteration错误时退出循环。
在python中,如果对象不含__next__方法,但是__iter__只返回self的话,尝试对对象使用for循环就会报“TypeError: iter() returned non-iterator of type [类名]”,针对这种错误要么加一个__next__()方法,要么__iter__()返回一个包含__next__()方法的迭代器对象。那么按理来说string、list这些iterable对象也是只含有__iter__不含__next__的,为何他们就可以for循环呢,这点在本文中的示例三中有演示,如果__iter__魔法方法调用了iter()方法,返回了一个迭代器对象,那么即便其不包含__next__也可以进行迭代
二、示例
示例一:(Python3环境)
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 | # 先看一个iterale对象 In [ 91 ]: from collections import Iterator,Iterable,Generator In [ 92 ]: a = [ 'ShanXi' , 'HuNan' , 'HuBei' , 'XinJiang' , 'JiangSu' , 'XiZang' , 'HeNan' , 'HeBei' ] In [ 93 ]: isinstance (a,Iterator), isinstance (a,Iterable), isinstance (a,Generator) Out[ 93 ]: ( False , True , False ) # 可以看到这是一个可迭代对象但并不是迭代器,我们把它搞成一个迭代器试试看: # 方法一: In [ 102 ]: def generator_list(a): ...: for e in a: ...: yield 'Province:\t' + e In [ 105 ]: for province in generator_list(a): ...: print (province) Province: ShanXi # ...其他输出省略 In [ 122 ]: isinstance (generator_list(a),Generator), isinstance (generator_list(a),Iterable), isinstance (generator_list(a),Iterator) Out[ 122 ]: ( True , True , True ) # 方法2: class iterator_list( object ): def __init__( self ,a): self .a = a self . len = len ( self .a) self .cur_pos = - 1 def __iter__( self ): return self def __next__( self ): # Python3中只能使用__next__()而Python2中只能命名为next() self .cur_pos + = 1 if self .cur_pos< self . len : return self .a[ self .cur_pos] else : raise StopIteration() # 表示至此停止迭代 In [ 144 ]: for province in iterator_list(a): ...: print (province) In [ 147 ]: isinstance (iterator_list(a),Generator), isinstance (iterator_list(a),Iterable), isinstance (iterator_list(a),Iterator) Out[ 147 ]: ( False , True , True ) # iterator当然是iterable,因为其本身含有__iter__方法。 |
问题一:既然可迭代对象也可以使用for循环遍历,为何还要使用迭代器呢?
一般情况下不需要将可迭代对象封装为迭代器。但是想象一种需要重复迭代的场景,在一个class中我们需要对输入数组进行正序、反序、正序step=1、正序step=2等等等等的多种重复遍历,那么我们完全可以针对每一种遍历方式写一个迭代容器,这样就不用每次需要遍历时都费劲心思的写一堆对应的for循环代码,只要调用相应名称的迭代器就能做到,针对每一种迭代器我们还可以加上类型判断及相应的处理,这使得我们可以不必关注底层的迭代代码实现。
从这种角度来看,你可以将迭代器看做可迭代对象的函数化,有一个非常流行的迭代器库itertools,其实就是如上所说的,他为很多可迭代类型提前定义好了一些列的常见迭代方式,并封装为了迭代器,这样大家就可以很方便的直接通过调用此模块玩转迭代。
此外iterator还可以节省内存,这点在问题二会描述。
问题二:生成器(generator)如何节约内存的?
generator的标志性关键字yield其实可以看作return,以本文上述的generator_list()方法为例,generator_list(a)就是一个生成器。
生成器最大的好处在于:generator_list(a)并不会真正执行函数的代码,只有在被循环时才会去获取值,且每次循环都return一个值(即yield一个值),在处理完毕后下次循环时依然使用相同的内存(假设处理单位大小一样)来获取值并处理,这样在一次for循环中函数好像中断(yield)了无数次,每次都用相同大小的内存来存储被迭代的值。
yield与return的最大区别就是yield并不意味着函数的终止,而是意味着函数的一次中断,在未被迭代完毕之前yield意味着先返回一次迭代值并继续下一次函数的执行(起始位置是上一次yeild语句结束),而return则基本意味着一个函数的彻底终止并返回一个全量的返回值。
因此generator是为了节省内存的,而且将函数写为一个生成器可以使函数变的可迭代,如果我们想遍历函数的返回值,我们不用再单独定义一个可迭代变量存储函数的返回值们,而是直接迭代生成器函数即可(除非函数本身返回一个全量的可迭代对象)。
同理iterator的__iter__()方法只是一个迭代的入口,每次调用__next__()时返回一个迭代值,同样以O(1)的空间复杂度完成了迭代。
问题三:iterator与generator的异同?
generator是iterator的一个子集,iterator也有节约内存的功效,generator也可以定制不同的迭代方式。
官网解释:Python’s generators provide a convenient way to implement the iterator protocol.
其实说白了就是generator更加轻量,日常编程里你可能常常使用它,而iterator一般使用系统提供的工具就可以了,极少会自己写一个。
示例二:(Python2环境)
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 | #-*- coding: utf-8 -*- # 简便起见这里只写python2的代码,想要在python3中运行将print修改下再把next()改名为__next__即可。 list = [ 'a' , 'b' , 'c' , 'd' , 'e' , 'f' , 'g' , 'h' , 'i' , 'j' ] class iter_standard( object ): def __init__( self , list ): self . list = list self . len = len ( self . list ) self .cur_pos = - 1 def __iter__( self ): return self def next ( self ): self .cur_pos + = 1 if self .cur_pos< self . len : return self . list [ self .cur_pos] else : raise StopIteration() class iter_reverse( object ): def __init__( self , list ): self . list = list self . len = len ( self . list ) self .cur_pos = self . len def __iter__( self ): return self def next ( self ): self .cur_pos - = 1 if self .cur_pos> = 0 : return self . list [ self .cur_pos] else : raise StopIteration() for e in iter_standard( list ): print e for e in iter_reverse( list ): print e |
可以看到我们只要调用相应名字的迭代器对象就可以直接进行for循环了,这种写法相比起每次都需要在for循环中重复一遍算法逻辑要简单,除此之外你还可以为不同输入类型定制相同的迭代方式,这样就无需关注内部实现了。这就是迭代器的作用,为不同类型的输入封装相同的迭代功能,从而实现代码简化。Python中有一个非常有用的itertools module,提供了大量不同的迭代器,只要直接调用你就可以实现对序列的各种操作,你可以通过这个库加深对于迭代器的理解。
示例三:(Python2环境)
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 | # 在github项目pymysqlreplication里发现,作者并未为class BinLogStreamReader专门写__next__方法,而是在__iter__里直接返回一个迭代器对象,这个迭代器对象是使用iter()方法调用self.fetchone生成的,代码如下: # module binlogstream部分代码如下: """ class BinLogStreamReader(object): ...... def fetchone(self): while True: ... # 各种参数赋值和终止条件定义 binlog_event = ... if binlog_event.event_type ... ... return binlog_event.event ...... def __iter__(self): return iter(self.fetchone, None) """ # fetchone是class BinLogStreamReader的一个方法,使用while循环根据不同的条件进行判断,返回event序列,这个可迭代的序列使用iter()处理后就是一个迭代器了,因此直接在__iter__中返回后就取代了__next__的作用。 # 因为不含__next__方法因此使用isinstance()判断BinLogStreamReader是否为迭代器时就会出错,虽然结果显示不是迭代器,但其实确实是迭代器... # 我们改写下示例二中的class iter_standard来验证这个错误: #-*- coding: utf-8 -*- from collections import Iterator,Iterable list = [ 'a' , 'b' , 'c' , 'd' , 'e' , 'f' , 'g' , 'h' , 'i' , 'j' ] class iter_standard( object ): def __init__( self , list ): self . list = list def __iter__( self ): return iter ( self . list ) print isinstance (iter_standard( list ),Iterable), isinstance (iter_standard( list ),Iterator) # 结果如下图,isinstance并不认为iter_standard类是一个迭代器。 |

因此这里可以对iterable对象做一个有别于文章开头的解释,非iterator的iterable对象其标志不仅仅是含有__iter__方法,他的__iter__方法还返回了一个迭代器对象(例如示例三中的iter(self.list)),但因为其本身不含__next__方法所以其可for循环但并不是iterator。
补充:
日常工作中使用generator处理大文件是比较常见的场景,因为可以不用一次性读取整个文件,使用generator也可以极大的减少代码量。
这里贴一个某次使用generator进行基于mysql binlog恢复的脚本,使用此脚本读取一个300多G的flashback sql文件,占用极小的内存完成了恢复:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 | #!/usr/bin/python3.6.5/bin/python3.6 # coding=utf-8 import pymysql import sys import os import time file = sys.argv[1] mysql_conn = pymysql.connect(host = "xxx" , port = 3306 , user = "leo" , passwd = "xxx" , db = "xxx" ,charset= 'utf8' ) def get_sql_batch(open_file,batch_size,file_size): cur_pos=0 open_file.seek(0 , os.SEEK_SET) while cur_pos<file_size: sql_batch=[] for i in range(batch_size): sql_line = open_file.readline() if 'xxx' in sql_line: sql_batch.append(sql_line) cur_pos=f.tell() yield sql_batch,cur_pos f=open(file) f.seek(0 , os.SEEK_END) filesize = f.tell() f.seek(0 , os.SEEK_SET) with mysql_conn.cursor() as cur: for batch,pos in get_sql_batch(f,1000,filesize): for sql in batch: cur.execute(sql) mysql_conn.commit() print( '%s: Current pos: %s,Current percent: %.2f%%' %(time.ctime(),pos,pos*100/filesize)) f.close() |
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 从 HTTP 原因短语缺失研究 HTTP/2 和 HTTP/3 的设计差异
· AI与.NET技术实操系列:向量存储与相似性搜索在 .NET 中的实现
· 基于Microsoft.Extensions.AI核心库实现RAG应用
· Linux系列:如何用heaptrack跟踪.NET程序的非托管内存泄露
· 开发者必知的日志记录最佳实践
· winform 绘制太阳,地球,月球 运作规律
· AI与.NET技术实操系列(五):向量存储与相似性搜索在 .NET 中的实现
· 超详细:普通电脑也行Windows部署deepseek R1训练数据并当服务器共享给他人
· 【硬核科普】Trae如何「偷看」你的代码?零基础破解AI编程运行原理
· 上周热点回顾(3.3-3.9)