python学习整理
Python-copy()与deepcopy()区别
—–我们寻常意义的复制就是深复制,即将被复制对象完全再复制一遍作为独立的新个体单独存在。所以改变原有被复制对象不会对已经复制出来的新对象产生影响。
—–而浅复制并不会产生一个独立的对象单独存在,他只是将原有的数据块打上一个新标签,所以当其中一个标签被改变的时候,数据块就会发生变化,另一个标签也会随之改变。这就和我们寻常意义上的复制有所不同了。
对于简单的 object,用 shallow copy 和 deep copy 没区别
复杂的 object, 如 list 中套着 list 的情况,shallow copy 中的 子list,并未从原 object 真的「独立」出来。也就是说,如果你改变原 object 的子 list 中的一个元素,你的 copy 就会跟着一起变。这跟我们直觉上对「复制」的理解不同。
Python 存储变量的方法跟其他 OOP 语言不同。它与其说是把值赋给变量,不如说是给变量建立了一个到具体值的 reference。
当在 Python 中 a = something 应该理解为给 something 贴上了一个标签 a。当再赋值给 a 的时候,就好象把 a 这个标签从原来的 something 上拿下来,贴到其他对象上,建立新的 reference。
copy对于一个复杂对象的子对象并不会完全复制,什么是复杂对象的子对象呢?就比如序列里的嵌套序列,字典里的嵌套序列等都是复杂对象的子对象。对于子对象,python会把它当作一个公共镜像存储起来,所有对他的复制都被当成一个引用,所以说当其中一个引用将镜像改变了之后另一个引用使用镜像的时候镜像已经被改变了。
deepcopy的时候会将复杂对象的每一层复制一个单独的个体出来。
上下文管理器(Context Manager)/with关键字
写代码时,我们希望把一些操作放到一个代码块中,这样在代码块中执行时就可以保持在某种运行状态,而当离开该代码块时就执行另一个操作,结束当前状态;所以,简单来说,上下文管理器的目的就是规定对象的使用范围,如果超出范围就采取“处理”。
首先我们来看一段未使用上下文管理器的代码,看看它在运行过程中会出现什么问题?
#when without using context manager f = open("hl.txt", "w") print(f.closed) #运行到这里,会打印出False,因为没有关闭 f.write("Hello,context manager!") f.close() print(f.closed) #这里才会打印出True,表示文件关闭
如果这段代码根本执行不到f.close()这一句,是不是就出现问题了,假设我们在写入的过程中,磁盘满了,代码就会在写入的那一句出现异常,这样就永远执行不到f.close()这一句,文件就永远不会被关闭,可能你会说我可以用try…finally语句啊,不就解决这个问题了么,但是同样会有问题在里面。
问题就在于,当我们执行的不是简单的写入操作,而是其他更复杂的操作,如拷贝,同时读和写,这时你会看到try…finally语句根本无法保证代码的美感,简直太糟糕。。所以,上下文管理器就派上用场了,它可以保证不论何时,你的代码都是美观的且安全的。
使用了上下文管理器的情况:
#when using context manager with open("hl.txt","w") as f: print(f.closed) #False f.write("Hello,context manager!") print(f.closed) #True 无需执行f.close()
with关键词总是伴随着上下文管理器出现,as关键词将open(“hl.txt”,”w”)赋给了新的对象f,使得在该代码块中可以对f执行任意操作,代码相当简洁。
自定义上下文管理器
想要作为上下文管理器,还需要做一些工作,即需要实现两个方法:_enter_()和_exit_();
_enter_():负责进入代码块的准备工作,进入前被调用;
_exit_():负责离开代码块的善后工作,离开后被调用;
因此,一个Python类,只要实现了上述两种方法,就可以说是一个上下文管理器。
class FileRead(object): def __init__(self,filename,read_method='w'): self.obj = file(filename,read_method) def __enter__(): return self.obj def __exit__(): self.obj.close() with FileRead('test.txt') as f: f.write('s')
yield关键字
用于迭代
Python yield 使用浅析
斐波那契数列
def fab(max): n, a, b = 0, 0, 1 while n < max: yield b # print b a, b = b, a + b n = n + 1
调用:
>>> for n in fab(5): ... print n
简单地讲,yield 的作用就是把一个函数变成一个 generator,带有 yield 的函数不再是一个普通函数,Python 解释器会将其视为一个 generator,调用 fab(5) 不会执行 fab 函数,而是返回一个 iterable 对象!在 for 循环执行时,每次循环都会执行 fab 函数内部的代码,执行到 yield b 时,fab 函数就返回一个迭代值,下次迭代时,代码从 yield b 的下一条语句继续执行,而函数的本地变量看起来和上次中断执行前是完全一样的,于是函数继续执行,直到再次遇到 yield。
也可以手动调用 fab(5) 的 next() 方法(因为 fab(5) 是一个 generator 对象,该对象具有 next() 方法)
>>> f = fab(5) >>> f.next() 1 >>> f.next() 1 >>> f.next() 2 >>> f.next() 3 >>> f.next() 5 >>> f.next() Traceback (most recent call last): File "<stdin>", line 1, in <module> StopIteration
当函数执行结束时,generator 自动抛出 StopIteration 异常,表示迭代完成。在 for 循环里,无需处理 StopIteration 异常,循环会正常结束。
我们可以得出以下结论:
一个带有 yield 的函数就是一个 generator,它和普通函数不同,生成一个 generator 看起来像函数调用,但不会执行任何函数代码,直到对其调用 next()(在 for 循环中会自动调用 next())才开始执行。虽然执行流程仍按函数的流程执行,但每执行到一个 yield 语句就会中断,并返回一个迭代值,下次执行时从 yield 的下一个语句继续执行。看起来就好像一个函数在正常执行的过程中被 yield 中断了数次,每次中断都会通过 yield 返回当前的迭代值。
yield 的好处是显而易见的,把一个函数改写为一个 generator 就获得了迭代能力,比起用类的实例保存状态来计算下一个 next() 的值,不仅代码简洁,而且执行流程异常清晰。
在python 3.x中, next()应当替换为__next__()
转载自https://blog.csdn.net/caroline_wendy/article/details/23370907
在python中,list,tuple,dict,set有什么区别,主要应用于什么样的场景
解答
list:列表(链表的数据结构)有序的项目, 通过索引进行查找,使用方括号”[]”;
tuple:元组 元组将多样的对象集合到一起,不能修改,通过索引进行查找, 使用括号”()”;
dict:字典 字典是一组键(key)和值(value)的组合,通过键(key)进行查找,没有顺序, 使用大括号”{}”;
set:集合 无序,元素只出现一次, 自动去重,使用”set([])”
应用场景
list, 简单的数据集合,可以使用索引;
tuple, 把一些数据当做一个整体去使用,不能修改;
dict,使用键值和值进行关联的数据;
set,数据只出现一次,只关心数据是否出现, 不关心其位置;