Python模块之内置模块
1. 序列化模块
什么是序列化呢? 序列化的本质就是将一种数据结构(如字典、列表)等转换成一个特殊的序列(字符串或者bytes)的过程就叫做序列化。那么有人就会问了,为什么要转化成这个序列。
dic = {'name': 'william'} ret = str(dic) print(ret,type(ret))
首先要看清楚!我说的是一个特殊的序列,而不是我们常用的str这种字符串。
为什么要有序列化模块?
其次,将这个数据结构转化成这个特殊的序列有什么用呢? 这个才是序列化的关键所在,这个特殊的序列大有用处。举例说明:
比如,程序中需要一个字典类型的数据存放你的个人信息:
dic = {'username':'william', 'password': 123,'login_status': True}
程序中有一些地方都需要使用这个dic数据,登录时会用到,注册时也会用到。那么就是将这个dic写在全局里,但是这样是不合理的,应该是将这数据写入一个地方存储(还没有学数据库)先存放在一个文件中,那么程序中哪里需要这个数据了,就读取文件取出所需要的信息即可。那么有没有什么问题? 将这个字典直接写入文件是不可以的,必须转化成字符串的形式,而且读取出来也是字符串形式的字典(可以用代码展示)。
那么拿到一个str(dic)有什么用?这是根本转化不成dic的(不能用eval很危险),所以很不方便。那么这时候序列化模块就起到作用了,如果写入文件中的字符串是一个序列化后的特殊的字符串,那么当从文件中读取出来,是可以转化回原数据结构的。这个就很牛逼了。
下面说的是json序列化,pickle序列化有所不同。
json序列化除了可以解决写入文件的问题,还可以解决网络传输的问题,比如将一个list数据结构通过网络传给另个开发者,那么就不可以直接传输,之前我们说过,要想传输出去必须用bytes类型。但是bytes类型只能与字符串类型互相转化,它不能与其他数据结构直接转化,所以,只能将list ---> 字符串 ---> bytes 然后发送,对方收到之后,在decode() 解码成原字符串。此时这个字符串不能是我们之前的str那种字符串,因为它不能反解,必须要是这个特殊的字符串,可以反解成list 这样开发者之间就可以借助网络互传数据了,不仅仅是开发者之间,要借助网络爬取数据这些数据多半是这种特殊的字符串,接收到之后,在反解成需要的数据类型。
对于这个序列化模块做一个小小总结:
序列化模块就是将一个常见的数据结构转化成一个特殊的序列,并且这个特殊的序列还可以反解回去。它的主要用途:文件读写数据,网络传输数据。
Python中这种序列化模块有三种:
json模块 : (重点)
-
不同语言都遵循的一种数据转化格式,即不同语言都使用的特殊字符串。(比如Python的一个列表[1, 2, 3]利用json转化成特殊的字符串,然后在编码成bytes发送给php的开发者,php的开发者就可以解码成特殊的字符串,然后在反解成原数组(列表): [1, 2, 3])
-
json序列化只支持部分Python数据结构:dict,list, tuple,str,int, float,True,False,None
pickle模块:
-
只能是Python语言遵循的一种数据转化格式,只能在python语言中使用。
-
支持Python所有的数据类型包括实例化对象。
shelve模块:类似于字典的操作方式去操作特殊的字符串。
当然序列化模块中使用最多的的就是json模块,那么接下来,讲解一下json与pickle模块。
1.1 json模块
json模块是将满足条件的数据结构转化成特殊的字符串,并且也可以反序列化还原回去。
上面介绍已经说过了,序列化模块总共只有两种用法,要不就是用于网络传输的中间环节,要不就是文件存储的中间环节,所以json模块总共就有两对四个方法:
用于网络传输:dumps、loads
用于文件写读:dump、load
dumps、loads
import json dic = {'k1':'v1','k2':'v2','k3':'v3'} str_dic = json.dumps(dic) #序列化:将一个字典转换成一个字符串 print(type(str_dic),str_dic) #<class 'str'> {"k3": "v3", "k1": "v1", "k2": "v2"} #注意,json转换完的字符串类型的字典中的字符串是由""表示的 dic2 = json.loads(str_dic) #反序列化:将一个字符串格式的字典转换成一个字典 #注意,要用json的loads功能处理的字符串类型的字典中的字符串必须由""表示 print(type(dic2),dic2) #<class 'dict'> {'k1': 'v1', 'k2': 'v2', 'k3': 'v3'} list_dic = [1,['a','b','c'],3,{'k1':'v1','k2':'v2'}] str_dic = json.dumps(list_dic) #也可以处理嵌套的数据类型 print(type(str_dic),str_dic) #<class 'str'> [1, ["a", "b", "c"], 3, {"k1": "v1", "k2": "v2"}] list_dic2 = json.loads(str_dic) print(type(list_dic2),list_dic2) #<class 'list'> [1, ['a', 'b', 'c'], 3, {'k1': 'v1', 'k2': 'v2'}]
dump、load
import json f = open('json_file.json','w') dic = {'k1':'v1','k2':'v2','k3':'v3'} json.dump(dic,f) #dump方法接收一个文件句柄,直接将字典转换成json字符串写入文件 f.close() # json文件也是文件,就是专门存储json字符串的文件。 f = open('json_file.json') dic2 = json.load(f) #load方法接收一个文件句柄,直接将文件中的json字符串转换成数据结构返回 f.close() print(type(dic2),dic2)
其他参数说明
ensure_ascii:,当它为True的时候,所有非ASCII码字符显示为\uXXXX序列,只需在dump时将ensure_ascii设置为False即可,此时存入json的中文即可正常显示。 separators:分隔符,实际上是(item_separator, dict_separator)的一个元组,默认的就是(‘,’,’:’);这表示dictionary内keys之间用“,”隔开,而KEY和value之间用“:”隔开。 sort_keys:将数据根据keys的值进行排序。 剩下的自己看源码研究
json序列化存储多个数据到同一个文件中
对于json序列化,存储多个数据到一个文件中是有问题的,默认一个json文件只能存储一个json数据,但是也可以解决,举例说明:
对于json 存储多个数据到文件中 dic1 = {'name':'oldboy1'} dic2 = {'name':'oldboy2'} dic3 = {'name':'oldboy3'} f = open('序列化',encoding='utf-8',mode='a') json.dump(dic1,f) json.dump(dic2,f) json.dump(dic3,f) f.close() f = open('序列化',encoding='utf-8') ret = json.load(f) ret1 = json.load(f) ret2 = json.load(f) print(ret)
上面会报错
解决方式:
dic1 = {'name':'oldboy1'} dic2 = {'name':'oldboy2'} dic3 = {'name':'oldboy3'} f = open('序列化',encoding='utf-8',mode='a') str1 = json.dumps(dic1) f.write(str1+'\n') str2 = json.dumps(dic2) f.write(str2+'\n') str3 = json.dumps(dic3) f.write(str3+'\n') f.close() f = open('序列化',encoding='utf-8') for line in f: print(json.loads(line))
1.2 pickle模块
pickle模块是将Python所有的数据结构以及对象等转化成bytes类型,然后还可以反序列化还原回去。
刚才也提到了pickle模块,pickle模块是只能Python语言识别的序列化模块。如果把序列化模块比喻成全世界公认的一种交流语言,也就是标准的话,json就是像是英语,全世界(python,java,php,C,等等)都遵循这个标准。而pickle就是中文,只有中国人(python)作为第一交流语言。
既然只是Python语言使用,那么它支持Python所有的数据类型包括后面实例化对象等,它能将这些所有的数据结构序列化成特殊的bytes,然后还可以反序列化还原。使用上与json几乎差不多,也是两对四个方法。
用于网络传输:dumps、loads
用于文件写读:dump、load
dumps、loads
import pickle dic = {'k1':'v1','k2':'v2','k3':'v3'} str_dic = pickle.dumps(dic) print(str_dic) # bytes类型 dic2 = pickle.loads(str_dic) print(dic2) #字典
# 还可以序列化对象 import pickle def func(): print(666) ret = pickle.dumps(func) print(ret,type(ret)) # b'\x80\x03c__main__\nfunc\nq\x00.' <class 'bytes'> f1 = pickle.loads(ret) # f1得到 func函数的内存地址 f1() # 执行func函数
dump、load
dic = {(1,2):'oldboy',1:True,'set':{1,2,3}} f = open('pick序列化',mode='wb') pickle.dump(dic,f) f.close() with open('pick序列化',mode='wb') as f1: pickle.dump(dic,f1)
pickle序列化存储多个数据到一个文件中
dic1 = {'name':'oldboy1'} dic2 = {'name':'oldboy2'} dic3 = {'name':'oldboy3'} f = open('pick多数据',mode='wb') pickle.dump(dic1,f) pickle.dump(dic2,f) pickle.dump(dic3,f) f.close() f = open('pick多数据',mode='rb') while True: try: print(pickle.load(f)) except EOFError: break f.close()
既然pickle如此强大,为什么还要学json呢?这里要说明一下,json是一种所有的语言都可以识别的数据结构。如果将一个字典或者序列化成了一个json存在文件里,那么java代码或者js代码也可以拿来用。但是如果用pickle进行序列化,其他语言就不能读懂这是什么了~所以,如果序列化的内容是列表或者字典,非常推荐使用json模块,但如果出于某种原因不得不序列化其他的数据类型,而未来还会用python对这个数据进行反序列化的话,那么就可以使用pickle。
1.3 shelve模块
shelve也是python提供给我们的序列化工具,比pickle用起来更简单一些。
shelve只提供给我们一个open方法,是用key来访问的,使用起来和字典类似。
import shelve f = shelve.open('shelve_file') f['key'] = {'int':10, 'float':9.5, 'string':'Sample data'} #直接对文件句柄操作,就可以存入数据 f.close() import shelve f1 = shelve.open('shelve_file') existing = f1['key'] #取出数据的时候也只需要直接用key获取即可,但是如果key不存在会报错 f1.close() print(existing)
import shelve f = shelve.open('shelve_file') f['key'] = {'int':10, 'float':9.5, 'string':'Sample data'} #直接对文件句柄操作,就可以存入数据 f.close() import shelve f1 = shelve.open('shelve_file') existing = f1['key'] #取出数据的时候也只需要直接用key获取即可,但是如果key不存在会报错 f1.close() print(existing)
这个模块有个限制,它不支持多个应用同一时间往同一个DB进行写操作。所以当我们知道我们的应用如果只进行读操作,我们可以让shelve通过只读方式打开DB
import shelve f = shelve.open('shelve_file', flag='r') existing = f['key'] f.close() print(existing)
import shelve f = shelve.open('shelve_file', flag='r') existing = f['key'] f.close() print(existing)
由于shelve在默认情况下是不会记录待持久化对象的任何修改的,所以我们在shelve.open()时候需要修改默认参数,否则对象的修改不会保存。
import shelve f1 = shelve.open('shelve_file') print(f1['key']) f1['key']['new_value'] = 'this was not here before' f1.close() f2 = shelve.open('shelve_file', writeback=True) print(f2['key']) f2['key']['new_value'] = 'this was not here before' f2.close()
import shelve f1 = shelve.open('shelve_file') print(f1['key']) f1['key']['new_value'] = 'this was not here before' f1.close() f2 = shelve.open('shelve_file', writeback=True) print(f2['key']) f2['key']['new_value'] = 'this was not here before' f2.close()
writeback方式有优点也有缺点。优点是减少了我们出错的概率,并且让对象的持久化对用户更加的透明了;但这种方式并不是所有的情况下都需要,首先,使用writeback以后,shelf在open()的时候会增加额外的内存消耗,并且当DB在close()的时候会将缓存中的每一个对象都写入到DB,这也会带来额外的等待时间。因为shelve没有办法知道缓存中哪些对象修改了,哪些对象没有修改,因此所有的对象都会被写入。
2. os模块
os模块是与操作系统交互的一个接口,它提供的功能多与工作目录,路径,文件等相关。
讲os模块方法前先普及一下专用名词:
目录指的是:文件夹 当前目录,工作目录,父级目录:指的都是一个,就是本文件所在的文件夹。
当前执行这个python文件的工作目录相关的工作路径 os.getcwd() 获取当前工作目录,即当前python脚本工作的目录路径 ** os.chdir("dirname") 改变当前脚本工作目录;相当于shell下cd ** os.curdir 返回当前目录: ('.') ** os.pardir 获取当前目录的父目录字符串名:('..') ** # 和文件夹相关 os.makedirs('dirname1/dirname2') 可生成多层递归目录 *** os.removedirs('dirname1') 若目录为空,则删除,并递归到上一级目录,如若也为空,则删除,依此类推 *** os.mkdir('dirname') 生成单级目录;相当于shell中mkdir dirname *** os.rmdir('dirname') 删除单级空目录,若目录不为空则无法删除,报错;相当于shell中rmdir dirname *** # os.listdir('dirname') 列出指定目录下的所有文件和子目录,包括隐藏文件,并以列表方式打印 ** # 和文件相关 os.remove() 删除一个文件 *** os.rename("oldname","newname") 重命名文件/目录 *** os.stat('path/filename') 获取文件/目录信息 ** # 和操作系统差异相关 # os.sep 输出操作系统特定的路径分隔符,win下为"\\",Linux下为"/" * # os.linesep 输出当前平台使用的行终止符,win下为"\t\n",Linux下为"\n" * # os.pathsep 输出用于分割文件路径的字符串 win下为;,Linux下为: * # os.name 输出字符串指示当前使用平台。win->'nt'; Linux->'posix' * # 和执行系统命令相关 # os.system("bash command") 运行shell命令,直接显示 ** # os.popen("bash command).read() 运行shell命令,获取执行结果 ** os.environ 获取系统环境变量 ** #path系列,和路径相关 os.path.abspath(path) 返回path规范化的绝对路径 *** os.path.split(path) 将path分割成目录和文件名二元组返回 *** os.path.dirname(path) 返回path的目录。其实就是os.path.split(path)的第一个元素 ** os.path.basename(path) 返回path最后的文件名。如何path以/或\结尾,那么就会返回空值,即os.path.split(path)的第二个元素。 ** os.path.exists(path) 如果path存在,返回True;如果path不存在,返回False *** os.path.isabs(path) 如果path是绝对路径,返回True ** os.path.isfile(path) 如果path是一个存在的文件,返回True。否则返回False *** os.path.isdir(path) 如果path是一个存在的目录,则返回True。否则返回False *** os.path.join(path1[, path2[, ...]]) 将多个路径组合后返回,第一个绝对路径之前的参数将被忽略 *** os.path.getatime(path) 返回path所指向的文件或者目录的最后访问时间 ** os.path.getmtime(path) 返回path所指向的文件或者目录的最后修改时间 ** os.path.getsize(path) 返回path的大小 ***
注意:os.stat('path/filename') 获取文件/目录信息 的结构说明
stat 结构: st_mode: inode 保护模式 st_ino: inode 节点号。 st_dev: inode 驻留的设备。 st_nlink: inode 的链接数。 st_uid: 所有者的用户ID。 st_gid: 所有者的组ID。 st_size: 普通文件以字节为单位的大小;包含等待某些特殊文件的数据。 st_atime: 上次访问的时间。 st_mtime: 最后一次修改的时间。 st_ctime: 由操作系统报告的"ctime"。在某些系统上(如Unix)是最新的元数据更改的时间,在其它系统上(如Windows)是创建时间(详细信息参见平台的文档)。
3. sys模块
sys模块是与python解释器交互的一个接口。
sys.argv 命令行参数List,第一个元素是程序本身路径 sys.exit(n) 退出程序,正常退出时exit(0),错误退出sys.exit(1) sys.version 获取Python解释程序的版本信息 sys.path 返回模块的搜索路径,初始化时使用PYTHONPATH环境变量的值 *** sys.platform 返回操作系统平台名称
4. hashlib模块
此模块有人称为摘要算法,也叫做加密算法,或者是哈希算法,散列算法等等,这么多title不用记,那么有人就问它到底是干啥的? 简单来说就是做加密和校验使用,它的工作原理给大家简单描述一下:它通过一个函数,把任意长度的数据按照一定规则转换为一个固定长度的数据串(通常用16进制的字符串表示)。
比如:在一个文件中存储用户的用户名和密码是这样的形式:
william|123456
有什么问题?这个密码是明文的,如果有人可以窃取到这个文件,那么密码就会泄露了。所以,一般存储密码时都是以密文存储,比如:
william|e10adc3949ba59abbe56e057f20f883e
那么即使是窃取到这个文件,也不会轻易的破解出密码,这样就会保证了数据的安全。
hashlib模块完成的就是这个功能。
hashlib的特征以及使用要点:
-
bytes类型数据 ---> 通过hashlib算法 ---> 固定长度的字符串
-
不同的bytes类型数据转化成的结果一定不同。
-
相同的bytes类型数据转化成的结果一定相同。
-
此转化过程不可逆。
hashlib模块的主要用途有两个:
密码的加密。
文件一致性校验。
hashlib模块就相当于一个算法的集合,这里面包含着很多的算法,算法越高,转化成的结果越复杂,安全程度越高,相应的效率就会越低。
4.1 密码的加密
普通加密:
以常见的摘要算法MD5为例,计算出一个字符串的MD5值:
import hashlib md5 = hashlib.md5() md5.update('123456'.encode('utf-8')) print(md5.hexdigest()) # 计算结果如下: 'e10adc3949ba59abbe56e057f20f883e' # 验证:相同的bytes数据转化的结果一定相同 import hashlib md5 = hashlib.md5() md5.update('123456'.encode('utf-8')) print(md5.hexdigest()) # 计算结果如下: 'e10adc3949ba59abbe56e057f20f883e' # 验证:不相同的bytes数据转化的结果一定不相同 import hashlib md5 = hashlib.md5() md5.update('12345'.encode('utf-8')) print(md5.hexdigest()) # 计算结果如下: '827ccb0eea8a706c4c34a16891f84e7b'
上面就是普通的md5加密,非常简单,几行代码就可以了,但是这种加密级别是最低的,相对来说不很安全。虽然说hashlib加密是不可逆的加密方式,但也是可以破解的,那么是如何做的呢?网上好多MD5解密软件,就是用最low的方式,空间换时间。会把常用的一些密码比如:123456,111111,以及他们的md5的值做成对应关系,类似于字典,
dic = {'e10adc3949ba59abbe56e057f20f883e': 123456}
然后通过密文获取对应的密码。
只要空间足够大,那么里面容纳的密码会非常多,利用空间换取破解时间。 所以针对刚才说的情况,有更安全的加密方式:加盐。
加盐加密
固定的盐
什么叫加盐?加盐这个词儿来自于国外,外国人起名字很随意,这个名字来源于烧烤,俗称BBQ。烧烤的时候,一般在快熟的时候,都会给肉串上面撒盐,增加味道,那么这个撒盐的工序,外国人认为比较复杂,所以就讲比较复杂的加密方式称之为加盐。
其实代码非常简单:
ret = hashlib.md5('xx教育'.encode('utf-8')) # xx教育就是固定的盐 ret.update('a'.encode('utf-8')) print(ret.hexdigest())
上面的xx教育就是固定的盐,比如有一家公司,公司会将他们所有的密码在md5之前增加一个固定的盐,这样提高了密码的安全性。但是如果黑客通过手段窃取到这个固定的盐之后,也是可以破解出来的。所以,还可以加动态的盐。
动态的盐
username = 'william666' ret = hashlib.md5(username[::2].encode('utf-8')) # 针对于每个账户,每个账户的盐都不一样 ret.update('a'.encode('utf-8')) print(ret.hexdigest())
这样,安全性能就大大提高了。
那么之前说了hahslib模块是一个算法集合,它里面包含很多种加密算法,刚才介绍的MD5算法是比较常用的一种加密算法,一般的企业用MD5就够用了。但是对安全要求比较高的企业,比如金融行业,MD5加密的方式就不够了,得需要加密方式更高的,比如sha系列,sha1,sha224,sha512等等,数字越大,加密的方法越复杂,安全性越高,但是效率就会越慢。
ret = hashlib.sha1() ret.update('william'.encode('utf-8')) print(ret.hexdigest()) #也可加盐 ret = hashlib.sha384(b'asfdsa') ret.update('william'.encode('utf-8')) print(ret.hexdigest()) # 也可以加动态的盐 ret = hashlib.sha384(b'asfdsa'[::2]) ret.update('william'.encode('utf-8')) print(ret.hexdigest())
不过一般MD5加密就可以了。
4.42 文件的一致性校验
hashlib模块除了可以用于密码加密之外,还有一个常用的功能,那就是文件的一致性校验。
linux讲究:一切皆文件,普通的文件,视频,音频,图片,以及应用程序等都是文件。我们都从网上下载过资源,比如我们从网上下载pycharm这个软件,当时我们可能没有注意过,其实下载的时候都是带一个MD5或者shax值的,为什么? 我们的网络世界是很不安全的,经常会遇到病毒,木马等,有些是看不到的可能就植入了电脑中,那么病毒是怎么来的? 都是通过网络传入来的,就是在网上下载一些资源的时候,趁虚而入,当然大部门被浏览器或者杀毒软件拦截了,但是还有一部分偷偷的进入磁盘中了。那么我们自己如何验证我们下载的资源是否有病毒呢?这就需要文件的一致性校验了。在我们下载一个软件时,往往都带有一个MD5或者shax值,当我们下载完成这个应用程序时你要是对比大小根本看不出什么问题,你应该对比他们的md5值,如果两个md5值相同,就证明这个应用程序是安全的,如果你下载的这个文件的MD5值与服务端给你提供的不同,那么就证明你这个应用程序肯定是植入病毒了(文件损坏的几率很低),那么你就应该赶紧删除,不应该安装此应用程序。
我们之前说过,md5计算的就是bytes类型的数据的转换值,同一个bytes数据用同样的加密方式转化成的结果一定相同,如果不同的bytes数据(即使一个数据只是删除了一个空格)那么用同样的加密方式转化成的结果一定是不同的。所以,hashlib也是验证文件一致性的重要工具。
low版文件校验:
def func(file): with open(file,mode='rb') as f1: ret = hashlib.md5() ret.update(f1.read()) return ret.hexdigest() print(func('hashlib_file1'))
这样就可以计算此文件的MD5值,从而进行文件校验。但是这样写有一个问题,类似我们文件的改的操作,有什么问题?如果文件过大,全部读取出来直接就会撑爆内存的,所以我们要分段读取,那么分段读取怎么做呢?
hashlib还可以这样玩:
import hashlib # 直接 update md5obj = hashlib.md5() md5obj.update('william is a old driver'.encode('utf-8')) print(md5obj.hexdigest()) # 900e328fa53873fb245f418d6942e41b # 分段update md5obj = hashlib.md5() md5obj.update('william '.encode('utf-8')) md5obj.update('is '.encode('utf-8')) md5obj.update('a '.encode('utf-8')) md5obj.update('old '.encode('utf-8')) md5obj.update('driver'.encode('utf-8')) print(md5obj.hexdigest()) # 900e328fa53873fb245f418d6942e41b # 结果相同
那么根据上面的代码,我们自己做一个高大上版的文件校验。
高大上版文件校验
校验此版本的pycharm的sha256值是否相同。
def file_check(file_path): with open(file_path,mode='rb') as f1: sha256 = hashlib.sha256() while 1: content = f1.read(1024) if content: sha256.update(content) else: return sha256.hexdigest() print(file_check('pycharm-professional-2019.1.1.exe'))
5. collections模块
在内置数据类型(dict、list、set、tuple)的基础上,collections模块还提供了几个额外的数据类型:Counter、deque、defaultdict、namedtuple和OrderedDict等。
1.namedtuple: 生成可以使用名字来访问元素内容的tuple
2.deque: 双端队列,可以快速的从另外一侧追加和推出对象
3.Counter: 计数器,主要用来计数
4.OrderedDict: 有序字典
5.defaultdict: 带有默认值的字典
namedtuple
我们知道tuple可以表示不变集合,例如,一个点的二维坐标就可以表示成:
p = (1, 2)
但是,看到(1, 2),很难看出这个tuple是用来表示一个坐标的。
这时,namedtuple就派上了用场:
>>> from collections import namedtuple >>> Point = namedtuple('Point', ['x', 'y']) >>> p = Point(1, 2) >>> p.x 1 >>> p.y 2
类似的,如果要用坐标和半径表示一个圆,也可以用namedtuple定义:
namedtuple('名称', [属性list]): Circle = namedtuple('Circle', ['x', 'y', 'r'])
deque
使用list存储数据时,按索引访问元素很快,但是插入和删除元素就很慢了,因为list是线性存储,数据量大的时候,插入和删除效率很低。
deque是为了高效实现插入和删除操作的双向列表,适合用于队列和栈:
>>> from collections import deque >>> q = deque(['a', 'b', 'c']) >>> q.append('x') >>> q.appendleft('y') >>> q deque(['y', 'a', 'b', 'c', 'x'])
deque除了实现list的append()和pop()外,还支持appendleft()和popleft(),这样就可以非常高效地往头部添加或删除元素。
OrderedDict
使用dict时,Key是无序的。在对dict做迭代时,我们无法确定Key的顺序。
如果要保持Key的顺序,可以用OrderedDict:
>>> from collections import OrderedDict >>> d = dict([('a', 1), ('b', 2), ('c', 3)]) >>> d # dict的Key是无序的 {'a': 1, 'c': 3, 'b': 2} >>> od = OrderedDict([('a', 1), ('b', 2), ('c', 3)]) >>> od # OrderedDict的Key是有序的 OrderedDict([('a', 1), ('b', 2), ('c', 3)])
注意,OrderedDict的Key会按照插入的顺序排列,不是Key本身排序:
>>> od = OrderedDict() >>> od['z'] = 1 >>> od['y'] = 2 >>> od['x'] = 3 >>> od.keys() # 按照插入的Key的顺序返回 ['z', 'y', 'x']
defaultdict
有如下值集合 [11,22,33,44,55,66,77,88,99,90...],将所有大于 66 的值保存至字典的第一个key中,将小于 66 的值保存至第二个key的值中。
即: {'k1': 大于66 , 'k2': 小于66}
li = [11,22,33,44,55,77,88,99,90] result = {} for row in li: if row > 66: if 'key1' not in result: result['key1'] = [] result['key1'].append(row) else: if 'key2' not in result: result['key2'] = [] result['key2'].append(row) print(result) from collections import defaultdict values = [11, 22, 33,44,55,66,77,88,99,90] my_dict = defaultdict(list) for value in values: if value>66: my_dict['k1'].append(value) else: my_dict['k2'].append(value)
使用dict时,如果引用的Key不存在,就会抛出KeyError。如果希望key不存在时,返回一个默认值,就可以用defaultdict:
>>> from collections import defaultdict >>> dd = defaultdict(lambda: 'N/A') >>> dd['key1'] = 'abc' >>> dd['key1'] # key1存在 'abc' >>> dd['key2'] # key2不存在,返回默认值 'N/A'
Counter
Counter类的目的是用来跟踪值出现的次数。它是一个无序的容器类型,以字典的键值对形式存储,其中元素作为key,其计数作为value。计数值可以是任意的Interger(包括0和负数)。Counter类和其他语言的bags或multisets很相似。
c = Counter('abcdeabcdabcaba') print c 输出:Counter({'a': 5, 'b': 4, 'c': 3, 'd': 2, 'e': 1})
6.time模块
与时间相关的模块
1 2 3 4 5 | #常用方法 1.time .sleep(secs) (线程)推迟指定的时间运行。单位为秒。 2.time .time() 获取当前时间戳 |
三种形式:
-
时间戳(timestamp),通常来说,时间戳表示的是从1970年1月1日00:00:00开始按秒计算的偏移量。我们运行“type(time.time())”,返回的是float类型。主要用于计时,计算时间差
1 2 | import time time.time() |
-
格式化的时间字符串(Format String): ‘1999-12-06’
12345678910111213141516171819202122232425262728293031323334字符串格式化时间,输出是字符串类型
%
y 两位数的年份表示(
00
-
99
)
%
Y 四位数的年份表示(
000
-
9999
)
%
m 月份(
01
-
12
)
%
d 月内中的一天(
0
-
31
)
%
H
24
小时制小时数(
0
-
23
)
%
I
12
小时制小时数(
01
-
12
)
%
M 分钟数(
00
=
59
)
%
S 秒(
00
-
59
)
%
a 本地简化星期名称
%
A 本地完整星期名称
%
b 本地简化的月份名称
%
B 本地完整的月份名称
%
c 本地相应的日期表示和时间表示
%
j 年内的一天(
001
-
366
)
%
p 本地A.M.或P.M.的等价符
%
U 一年中的星期数(
00
-
53
)星期天为星期的开始
%
w 星期(
0
-
6
),星期天为星期的开始
%
W 一年中的星期数(
00
-
53
)星期一为星期的开始
%
x 本地相应的日期表示
%
X 本地相应的时间表示
%
Z 当前时区的名称
%
%
%
号本身
python中时间日期格式化符号:
python中时间日期格式化符号
#时间字符串
import
time
>>>time.strftime(
"%Y-%m-%d %X"
)
'2017-07-24 13:54:37'
>>>time.strftime(
"%Y-%m-%d %H-%M-%S"
)
'2017-07-24 13-55-04'
-
结构化时间(解释器使用的)
struct_time元组共有9个元素共九个元素:(年,月,日,时,分,秒,一年中第几周,一年中第几天等)
索引(INDEX) 属性(ATTRIBUTE) 值(VALUES) 0 tm_year(年) 比如2011 1 tm_mon(月) 1 - 12 2 tm_mday(日) 1 - 31 3 tm_hour(时) 0 - 23 4 tm_min(分) 0 - 59 5 tm_sec(秒) 0 - 60 6 tm_wday(weekday) 0 - 6(0表示周一) 7 tm_yday(一年中的第几天) 1 - 366 8 tm_isdst(是否是夏令时) 默认为0
1 2 3 4 5 6 | #时间元组:localtime将一个时间戳转换为当前时区的struct_time import time time.localtime() time.struct_time(tm_year = 2017 , tm_mon = 7 , tm_mday = 24 , tm_hour = 13 , tm_min = 59 , tm_sec = 37 , tm_wday = 0 , tm_yday = 205 , tm_isdst = 0 ) |
时间戳是计算机能够识别的时间;时间字符串是人能够看懂的时间;元组则是用来操作时间的
1 2 3 4 5 6 7 8 9 10 11 12 13 | # 格式化时间 ----> 结构化时间 ft = time.strftime( '%Y/%m/%d %H:%M:%S' ) st = time.strptime(ft, '%Y/%m/%d %H:%M:%S' ) print (st) # 结构化时间 ---> 时间戳 t = time.mktime(st) print (t) # 时间戳 ----> 结构化时间 t = time.time()st = time.localtime(t) print (st) # 结构化时间 ---> 格式化时间 ft = time.strftime( '%Y/%m/%d %H:%M:%S' ,st) print (ft) |
#
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 | 结构化时间 - - > % a % b % d % H: % M: % S % Y串 #time.asctime(结构化时间) 如果不传参数,直接返回当前时间的格式化串 >>>time.asctime(time.localtime( 1500000000 )) 'Fri Jul 14 10:40:00 2017' >>>time.asctime() 'Mon Jul 24 15:18:33 2017' #时间戳 --> %a %d %d %H:%M:%S %Y串 #time.ctime(时间戳) 如果不传参数,直接返回当前时间的格式化串 >>>time.ctime() 'Mon Jul 24 15:19:07 2017' >>>time.ctime( 1500000000 ) 'Fri Jul 14 10:40:00 2017' t = time.time() ft = time.ctime(t) print (ft) st = time.localtime() ft = time.asctime(st) print (ft) # 计算时间差 import time true_time = time.mktime(time.strptime( '2017-09-11 08:30:00' , '%Y-%m-%d %H:%M:%S' )) time_now = time.mktime(time.strptime( '2017-09-12 11:00:00' , '%Y-%m-%d %H:%M:%S' )) dif_time = time_now - true_time struct_time = time.gmtime(dif_time) print ( '过去了%d年%d月%d天%d小时%d分钟%d秒' % (struct_time.tm_year - 1970 ,struct_time.tm_mon - 1 , struct_time.tm_mday - 1 ,struct_time.tm_hour, struct_time.tm_min,struct_time.tm_sec)) |
7. datetime模块
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 | # datatime模块 import datetime now_time = datetime.datetime.now() # 现在的时间 # 只能调整的字段:weeks days hours minutes seconds print (datetime.datetime.now() + datetime.timedelta(weeks = 3 )) # 三周后 print (datetime.datetime.now() + datetime.timedelta(weeks = - 3 )) # 三周前 print (datetime.datetime.now() + datetime.timedelta(days = - 3 )) # 三天前 print (datetime.datetime.now() + datetime.timedelta(days = 3 )) # 三天后 print (datetime.datetime.now() + datetime.timedelta(hours = 5 )) # 5小时后 print (datetime.datetime.now() + datetime.timedelta(hours = - 5 )) # 5小时前 print (datetime.datetime.now() + datetime.timedelta(minutes = - 15 )) # 15分钟前 print (datetime.datetime.now() + datetime.timedelta(minutes = 15 )) # 15分钟后 print (datetime.datetime.now() + datetime.timedelta(seconds = - 70 )) # 70秒前 print (datetime.datetime.now() + datetime.timedelta(seconds = 70 )) # 70秒后 current_time = datetime.datetime.now() # 可直接调整到指定的 年 月 日 时 分 秒 等 print (current_time.replace(year = 1977 )) # 直接调整到1977年 print (current_time.replace(month = 1 )) # 直接调整到1月份 print (current_time.replace(year = 1989 ,month = 4 ,day = 25 )) # 1989-04-25 18:49:05.898601 # 将时间戳转化成时间 print (datetime.date.fromtimestamp( 1232132131 )) # 2009-01-17 |
8.random模块
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 | >>> import random #随机小数 >>> random.random() # 大于0且小于1之间的小数 0.7664338663654585 >>> random.uniform( 1 , 3 ) #大于1小于3的小数 1.6270147180533838 #恒富:发红包 #随机整数 >>> random.randint( 1 , 5 ) # 大于等于1且小于等于5之间的整数 >>> random.randrange( 1 , 10 , 2 ) # 大于等于1且小于10之间的奇数 #随机选择一个返回 >>> random.choice([ 1 , '23' ,[ 4 , 5 ]]) # #1或者23或者[4,5] #随机选择多个返回,返回的个数为函数的第二个参数 >>> random.sample([ 1 , '23' ,[ 4 , 5 ]], 2 ) # #列表元素任意2个组合 [[ 4 , 5 ], '23' ] #打乱列表顺序 >>> item = [ 1 , 3 , 5 , 7 , 9 ] >>> random.shuffle(item) # 打乱次序 >>> item [ 5 , 1 , 3 , 7 , 9 ] >>> random.shuffle(item) >>> item [ 5 , 9 , 7 , 1 , 3 ] # 随机验证码示例 import random def v_code(): code = '' for i in range ( 4 ): num = random.randint( 0 , 9 ) alf = chr (random.randint( 65 , 90 )) alf1 = chr (random.randint( 97 , 122 )) add = random.choice([num, alf, alf1]) code = "".join([code, str (add)]) return code print (v_code()) |
9.getpass模块
1 2 | import getpass pwd = getpass.getpass( '请输入密码:' ) # 密码不显示输出 |
10. logging模块
函数式简单配置
1 2 3 4 5 6 | import logging logging.debug( 'debug message' ) logging.info( 'info message' ) logging.warning( 'warning message' ) logging.error( 'error message' ) logging.critical( 'critical message' ) |
默认情况下Python的logging模块将日志打印到了标准输出中,且只显示了大于等于WARNING级别的日志,这说明默认的日志级别设置为WARNING(日志级别等级CRITICAL > ERROR > WARNING > INFO > DEBUG),默认的日志格式为日志级别:Logger名称:用户输出消息。
灵活配置日志级别,日志格式,输出位置:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 | import logging logging.basicConfig(level = logging.DEBUG, format = '%(asctime)s %(filename)s[line:%(lineno)d] %(levelname)s %(message)s' , datefmt = '%a, %d %b %Y %H:%M:%S' , filename = '/tmp/test.log' , filemode = 'w' ) logging.debug( 'debug message' ) logging.info( 'info message' ) logging.warning( 'warning message' ) logging.error( 'error message' ) logging.critical( 'critical message' ) logging.basicConfig()函数中可通过具体参数来更改logging模块默认行为,可用参数有: filename:用指定的文件名创建FiledHandler,这样日志会被存储在指定的文件中。 filemode:文件打开方式,在指定了filename时使用这个参数,默认值为“a”还可指定为“w”。 format :指定handler使用的日志显示格式。 datefmt:指定日期时间格式。 level:设置rootlogger(后边会讲解具体概念)的日志级别 stream:用指定的stream创建StreamHandler。可以指定输出到sys.stderr,sys.stdout或者文件(f = open (‘test.log’,’w’)),默认为sys.stderr。若同时列出了filename和stream两个参数,则stream参数会被忽略。 format 参数中可能用到的格式化串: % (name)s Logger的名字 % (levelno)s 数字形式的日志级别 % (levelname)s 文本形式的日志级别 % (pathname)s 调用日志输出函数的模块的完整路径名,可能没有 % (filename)s 调用日志输出函数的模块的文件名 % (module)s 调用日志输出函数的模块名 % (funcName)s 调用日志输出函数的函数名 % (lineno)d 调用日志输出函数的语句所在的代码行 % (created)f 当前时间,用UNIX标准的表示时间的浮 点数表示 % (relativeCreated)d 输出日志信息时的,自Logger创建以 来的毫秒数 % (asctime)s 字符串形式的当前时间。默认格式是 “ 2003 - 07 - 08 16 : 49 : 45 , 896 ”。逗号后面的是毫秒 % (thread)d 线程 ID 。可能没有 % (threadName)s 线程名。可能没有 % (process)d 进程 ID 。可能没有 % (message)s用户输出的消息 logger对象配置 import logging logger = logging.getLogger() # 创建一个handler,用于写入日志文件 fh = logging.FileHandler( 'test.log' ,encoding = 'utf-8' ) # 再创建一个handler,用于输出到控制台 ch = logging.StreamHandler() formatter = logging.Formatter('%(asctime)s - %(name)s - %(levelname)s - %(message)s') fh.setLevel(logging.DEBUG)fh.setFormatter(formatter) ch.setFormatter(formatter) logger.addHandler(fh) #logger对象可以添加多个fh和ch对象 logger.addHandler(ch) logger.debug('logger debug message') logger.info('logger info message') logger.warning('logger warning message') logger.error('logger error message') logger.critical('logger critical message') |
logging库提供了多个组件:Logger、Handler、Filter、Formatter。Logger对象提供应用程序可直接使用的接口,Handler发送日志到适当的目的地,Filter提供了过滤日志信息的方法,Formatter指定日志显示格式。另外,可以通过:logger.setLevel(logging.Debug)设置级别,当然,也可以通过
fh.setLevel(logging.Debug)单对文件流设置某个级别。
logger的配置文件
有的同学习惯通过logger的对象配置去完成日志的功能,没问题,但是上面这种方式需要创建各种对象,比如logger对象,fileHandler对象,ScreamHandler对象等等,比较麻烦,那么下面给你提供一种字典的方式,创建logger配置文件,这种才是工作中经常使用的实现日志功能的方法,真正的做到 ----- 拿来即用(简单改改)。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 | """ logging配置 """ import os import logging.config # 定义三种日志输出格式 开始 standard_format = '[%(asctime)s][%(threadName)s:%(thread)d][task_id:%(name)s][%(filename)s:%(lineno)d]' \ '[%(levelname)s][%(message)s]' #其中name为getlogger指定的名字 simple_format = '[%(levelname)s][%(asctime)s][%(filename)s:%(lineno)d]%(message)s' id_simple_format = '[%(levelname)s][%(asctime)s] %(message)s' # 定义日志输出格式 结束 logfile_dir = os.path.dirname(os.path.abspath(__file__)) # log文件的目录 logfile_name = 'all2.log' # log文件名 # 如果不存在定义的日志目录就创建一个 if not os.path.isdir(logfile_dir): os.mkdir(logfile_dir) # log文件的全路径 logfile_path = os.path.join(logfile_dir, logfile_name) # log配置字典 LOGGING_DIC = { 'version' : 1 , 'disable_existing_loggers' : False , 'formatters' : { 'standard' : { 'format' : standard_format }, 'simple' : { 'format' : simple_format }, }, 'filters' : {}, 'handlers' : { #打印到终端的日志 'console' : { 'level' : 'DEBUG' , 'class' : 'logging.StreamHandler' , # 打印到屏幕 'formatter' : 'simple' }, #打印到文件的日志,收集info及以上的日志 'default' : { 'level' : 'DEBUG' , 'class' : 'logging.handlers.RotatingFileHandler' , # 保存到文件 'formatter' : 'standard' , 'filename' : logfile_path, # 日志文件 'maxBytes' : 1024 * 1024 * 5 , # 日志大小 5M 'backupCount' : 5 , 'encoding' : 'utf-8' , # 日志文件的编码,再也不用担心中文log乱码了 }, }, 'loggers' : { #logging.getLogger(__name__)拿到的logger配置 '': { 'handlers' : [ 'default' , 'console' ], # 这里把上面定义的两个handler都加上,即log数据既写入文件又打印到屏幕 'level' : 'DEBUG' , 'propagate' : True , # 向上(更高level的logger)传递 }, }, } def load_my_logging_cfg(): logging.config.dictConfig(LOGGING_DIC) # 导入上面定义的logging配置 logger = logging.getLogger(__name__) # 生成一个log实例 logger.info( 'It works!' ) # 记录该文件的运行状态 if __name__ = = '__main__' : load_my_logging_cfg() 注意注意注意: #1、有了上述方式我们的好处是:所有与logging模块有关的配置都写到字典中就可以了,更加清晰,方便管理 #2、我们需要解决的问题是: 1 、从字典加载配置:logging.config.dictConfig(settings.LOGGING_DIC) 2 、拿到logger对象来产生日志 logger对象都是配置到字典的loggers 键对应的子字典中的 按照我们对logging模块的理解,要想获取某个东西都是通过名字,也就是key来获取的 于是我们要获取不同的logger对象就是 logger = logging.getLogger( 'loggers子字典的key名' ) 但问题是:如果我们想要不同logger名的logger对象都共用一段配置,那么肯定不能在loggers子字典中定义n个key 'loggers' : { 'l1' : { 'handlers' : [ 'default' , 'console' ], # 'level' : 'DEBUG' , 'propagate' : True , # 向上(更高level的logger)传递 }, 'l2: { 'handlers' : [ 'default' , 'console' ], 'level' : 'DEBUG' , 'propagate' : False , # 向上(更高level的logger)传递 }, 'l3' : { 'handlers' : [ 'default' , 'console' ], # 'level' : 'DEBUG' , 'propagate' : True , # 向上(更高level的logger)传递 }, } #我们的解决方式是,定义一个空的key 'loggers' : { '': { 'handlers' : [ 'default' , 'console' ], 'level' : 'DEBUG' , 'propagate' : True , }, } 这样我们再取logger对象时 logging.getLogger(__name__),不同的文件__name__不同,这保证了打印日志时标识信息不同,但是拿着该名字去loggers里找key名时却发现找不到,于是默认使用key = ''的配置 |
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 从 HTTP 原因短语缺失研究 HTTP/2 和 HTTP/3 的设计差异
· AI与.NET技术实操系列:向量存储与相似性搜索在 .NET 中的实现
· 基于Microsoft.Extensions.AI核心库实现RAG应用
· Linux系列:如何用heaptrack跟踪.NET程序的非托管内存泄露
· 开发者必知的日志记录最佳实践
· TypeScript + Deepseek 打造卜卦网站:技术与玄学的结合
· Manus的开源复刻OpenManus初探
· 写一个简单的SQL生成工具
· AI 智能体引爆开源社区「GitHub 热点速览」
· C#/.NET/.NET Core技术前沿周刊 | 第 29 期(2025年3.1-3.9)