一、logging模块
用于便捷记录且线程安全的模块
CRITICAL = 50
FATAL = CRITICAL
ERROR = 40
WARNING = 30
WARN = WARNING
INFO = 20
DEBUG = 10
NOTSET = 0
1 import logging 2 3 logging.debug('调试debug') 4 logging.info('消息info') 5 logging.warning('警告warn') 6 logging.error('错误error') 7 logging.critical('严重critical') 8 9 ''' 10 WARNING:root:警告warn 11 ERROR:root:错误error 12 CRITICAL:root:严重critical 13 ''' 14 15 part1: 默认打印到终端,默认级别为warning
1 #======介绍 2 可在logging.basicConfig()函数中可通过具体参数来更改logging模块默认行为,可用参数有 3 filename:用指定的文件名创建FiledHandler(后边会具体讲解handler的概念),这样日志会被存储在指定的文件中。 4 filemode:文件打开方式,在指定了filename时使用这个参数,默认值为“a”还可指定为“w”。 5 format:指定handler使用的日志显示格式。 6 datefmt:指定日期时间格式。 7 level:设置rootlogger(后边会讲解具体概念)的日志级别 8 stream:用指定的stream创建StreamHandler。可以指定输出到sys.stderr,sys.stdout或者文件,默认为sys.stderr。若同时列出了filename和stream两个参数,则stream参数会被忽略。 9 10 11 format参数中可能用到的格式化串: 12 %(name)s Logger的名字 13 %(levelno)s 数字形式的日志级别 14 %(levelname)s 文本形式的日志级别 15 %(pathname)s 调用日志输出函数的模块的完整路径名,可能没有 16 %(filename)s 调用日志输出函数的模块的文件名 17 %(module)s 调用日志输出函数的模块名 18 %(funcName)s 调用日志输出函数的函数名 19 %(lineno)d 调用日志输出函数的语句所在的代码行 20 %(created)f 当前时间,用UNIX标准的表示时间的浮 点数表示 21 %(relativeCreated)d 输出日志信息时的,自Logger创建以 来的毫秒数 22 %(asctime)s 字符串形式的当前时间。默认格式是 “2003-07-08 16:49:45,896”。逗号后面的是毫秒 23 %(thread)d 线程ID。可能没有 24 %(threadName)s 线程名。可能没有 25 %(process)d 进程ID。可能没有 26 %(message)s用户输出的消息 27 28 29 30 31 #========使用 32 import logging 33 logging.basicConfig(filename='access.log', 34 format='%(asctime)s - %(name)s - %(levelname)s -%(module)s: %(message)s', 35 datefmt='%Y-%m-%d %H:%M:%S %p', 36 level=10) 37 38 logging.debug('调试debug') 39 logging.info('消息info') 40 logging.warning('警告warn') 41 logging.error('错误error') 42 logging.critical('严重critical') 43 44 45 46 47 48 #========结果 49 access.log内容: 50 2017-07-28 20:32:17 PM - root - DEBUG -test: 调试debug 51 2017-07-28 20:32:17 PM - root - INFO -test: 消息info 52 2017-07-28 20:32:17 PM - root - WARNING -test: 警告warn 53 2017-07-28 20:32:17 PM - root - ERROR -test: 错误error 54 2017-07-28 20:32:17 PM - root - CRITICAL -test: 严重critical 55 56 part2: 可以为logging模块指定模块级的配置,即所有logger的配置
1 import logging 2 3 formatter=logging.Formatter('%(asctime)s - %(name)s - %(levelname)s -%(module)s: %(message)s', 4 datefmt='%Y-%m-%d %H:%M:%S %p',) 5 6 7 fh1=logging.FileHandler('test1.log') 8 fh2=logging.FileHandler('test2.log') 9 fh3=logging.FileHandler('test3.log') 10 ch=logging.StreamHandler() 11 12 fh1.setFormatter(formatter) #也可以是不同的formater 13 fh2.setFormatter(formatter) 14 fh3.setFormatter(formatter) 15 ch.setFormatter(formatter) 16 17 logger=logging.getLogger(__name__) 18 logger.setLevel(40) 19 20 logger.addHandler(fh1) 21 logger.addHandler(fh2) 22 logger.addHandler(fh3) 23 logger.addHandler(ch) 24 25 26 27 logger.debug('debug') 28 logger.info('info') 29 logger.warning('warning') 30 logger.error('error') 31 logger.critical('critical') 32 33 part3:logging模块的Formatter,Handler,Logger,Filter的概念,见图
图片链接:https://pan.baidu.com/s/1skWyTT7
logger是第一级过滤,然后才能到handler,可以给logger和handler同时设置level,但是需要注意的是
1 Logger is also the first to filter the message based on a level — if you set the logger to INFO, and all handlers to DEBUG, you still won't receive DEBUG messages on handlers — they'll be rejected by the logger itself. If you set logger to DEBUG, but all handlers to INFO, you won't receive any DEBUG messages either — because while the logger says "ok, process this", the handlers reject it (DEBUG < INFO). 2 3 4 5 #验证 6 import logging 7 8 9 form=logging.Formatter('%(asctime)s - %(name)s - %(levelname)s -%(module)s: %(message)s', 10 datefmt='%Y-%m-%d %H:%M:%S %p',) 11 12 ch=logging.StreamHandler() 13 14 ch.setFormatter(form) 15 # ch.setLevel(10) 16 ch.setLevel(20) 17 18 l1=logging.getLogger('root') 19 # l1.setLevel(20) 20 l1.setLevel(10) 21 l1.addHandler(ch) 22 23 l1.debug('l1 debug') 24 25 重要,重要,重要!!!
1 import logging 2 3 formatter=logging.Formatter('%(asctime)s - %(name)s - %(levelname)s -%(module)s: %(message)s', 4 datefmt='%Y-%m-%d %H:%M:%S %p',) 5 6 ch=logging.StreamHandler() 7 ch.setFormatter(formatter) 8 9 10 log1=logging.getLogger('root') 11 log2=logging.getLogger('root.child1') 12 log3=logging.getLogger('root.child1.child2') 13 14 15 log1.setLevel(10) 16 log2.setLevel(10) 17 log3.setLevel(10) 18 log1.addHandler(ch) 19 log2.addHandler(ch) 20 log3.addHandler(ch) 21 22 log1.debug('log1 debug') 23 log2.debug('log2 debug') 24 log3.debug('log3 debug') 25 ''' 26 2017-07-28 22:22:05 PM - root - DEBUG -test: log1 debug 27 2017-07-28 22:22:05 PM - root.child1 - DEBUG -test: log2 debug 28 2017-07-28 22:22:05 PM - root.child1 - DEBUG -test: log2 debug 29 2017-07-28 22:22:05 PM - root.child1.child2 - DEBUG -test: log3 debug 30 2017-07-28 22:22:05 PM - root.child1.child2 - DEBUG -test: log3 debug 31 2017-07-28 22:22:05 PM - root.child1.child2 - DEBUG -test: log3 debug 32 '''
logging的实际应用,模板
1 """ 2 logging配置 3 """ 4 5 import os 6 import logging.config 7 8 # 定义三种日志输出格式 开始 9 10 standard_format = '[%(asctime)s][%(threadName)s:%(thread)d][task_id:%(name)s][%(filename)s:%(lineno)d]' \ 11 '[%(levelname)s][%(message)s]' #其中name为getlogger指定的名字 12 13 simple_format = '[%(levelname)s][%(asctime)s][%(filename)s:%(lineno)d]%(message)s' 14 15 id_simple_format = '[%(levelname)s][%(asctime)s] %(message)s' 16 17 # 定义日志输出格式 结束 18 19 logfile_dir = os.path.dirname(os.path.abspath(__file__)) # log文件的目录 20 21 logfile_name = 'all2.log' # log文件名 22 23 # 如果不存在定义的日志目录就创建一个 24 if not os.path.isdir(logfile_dir): 25 os.mkdir(logfile_dir) 26 27 # log文件的全路径 28 logfile_path = os.path.join(logfile_dir, logfile_name) 29 30 # log配置字典 31 LOGGING_DIC = { 32 'version': 1, 33 'disable_existing_loggers': False, 34 'formatters': { 35 'standard': { 36 'format': standard_format 37 }, 38 'simple': { 39 'format': simple_format 40 }, 41 }, 42 'filters': {}, 43 'handlers': { 44 #打印到终端的日志 45 'console': { 46 'level': 'DEBUG', 47 'class': 'logging.StreamHandler', # 打印到屏幕 48 'formatter': 'simple' 49 }, 50 #打印到文件的日志,收集info及以上的日志 51 'default': { 52 'level': 'DEBUG', 53 'class': 'logging.handlers.RotatingFileHandler', # 保存到文件 54 'formatter': 'standard', 55 'filename': logfile_path, # 日志文件 56 'maxBytes': 1024*1024*5, # 日志大小 5M 57 'backupCount': 5, 58 'encoding': 'utf-8', # 日志文件的编码,再也不用担心中文log乱码了 59 }, 60 }, 61 'loggers': { 62 #logging.getLogger(__name__)拿到的logger配置 63 '': { 64 'handlers': ['default', 'console'], # 这里把上面定义的两个handler都加上,即log数据既写入文件又打印到屏幕 65 'level': 'DEBUG', 66 'propagate': True, # 向上(更高level的logger)传递 67 }, 68 }, 69 } 70 71 72 def load_my_logging_cfg(): 73 logging.config.dictConfig(LOGGING_DIC) # 导入上面定义的logging配置 74 logger = logging.getLogger(__name__) # 生成一个log实例 75 logger.info('It works!') # 记录该文件的运行状态 76 77 if __name__ == '__main__': 78 load_my_logging_cfg() 79 80 logging配置文件
1 """ 2 MyLogging Test 3 """ 4 5 import time 6 import logging 7 import my_logging # 导入自定义的logging配置 8 9 logger = logging.getLogger(__name__) # 生成logger实例 10 11 12 def demo(): 13 logger.debug("start range... time:{}".format(time.time())) 14 logger.info("中文测试开始。。。") 15 for i in range(10): 16 logger.debug("i:{}".format(i)) 17 time.sleep(0.2) 18 else: 19 logger.debug("over range... time:{}".format(time.time())) 20 logger.info("中文测试结束。。。") 21 22 if __name__ == "__main__": 23 my_logging.load_my_logging_cfg() # 在你程序文件的入口加载自定义logging配置 24 demo()
另外一个django的配置
1 #! /usr/bin/env python 2 # -*- coding: utf-8 -*- 3 # __author__ = "Q1mi" 4 # Date: 2017/7/28 5 6 7 8 LOGGING = { 9 'version': 1, 10 'disable_existing_loggers': False, 11 'formatters': { 12 'standard': { 13 'format': '[%(asctime)s][%(threadName)s:%(thread)d][task_id:%(name)s][%(filename)s:%(lineno)d]' 14 '[%(levelname)s][%(message)s]' 15 }, 16 'simple': { 17 'format': '[%(levelname)s][%(asctime)s][%(filename)s:%(lineno)d]%(message)s' 18 }, 19 'collect': { 20 'format': '%(message)s' 21 } 22 }, 23 'filters': { 24 'require_debug_true': { 25 '()': 'django.utils.log.RequireDebugTrue', 26 }, 27 }, 28 'handlers': { 29 #打印到终端的日志 30 'console': { 31 'level': 'DEBUG', 32 'filters': ['require_debug_true'], 33 'class': 'logging.StreamHandler', 34 'formatter': 'simple' 35 }, 36 #打印到文件的日志,收集info及以上的日志 37 'default': { 38 'level': 'INFO', 39 'class': 'logging.handlers.RotatingFileHandler', # 保存到文件,自动切 40 'filename': os.path.join(BASE_LOG_DIR, "xxx_info.log"), # 日志文件 41 'maxBytes': 1024 * 1024 * 5, # 日志大小 5M 42 'backupCount': 3, 43 'formatter': 'standard', 44 'encoding': 'utf-8', 45 }, 46 #打印到文件的日志:收集错误及以上的日志 47 'error': { 48 'level': 'ERROR', 49 'class': 'logging.handlers.RotatingFileHandler', # 保存到文件,自动切 50 'filename': os.path.join(BASE_LOG_DIR, "xxx_err.log"), # 日志文件 51 'maxBytes': 1024 * 1024 * 5, # 日志大小 5M 52 'backupCount': 5, 53 'formatter': 'standard', 54 'encoding': 'utf-8', 55 }, 56 #打印到文件的日志 57 'collect': { 58 'level': 'INFO', 59 'class': 'logging.handlers.RotatingFileHandler', # 保存到文件,自动切 60 'filename': os.path.join(BASE_LOG_DIR, "xxx_collect.log"), 61 'maxBytes': 1024 * 1024 * 5, # 日志大小 5M 62 'backupCount': 5, 63 'formatter': 'collect', 64 'encoding': "utf-8" 65 } 66 }, 67 'loggers': { 68 #logging.getLogger(__name__)拿到的logger配置 69 '': { 70 'handlers': ['default', 'console', 'error'], 71 'level': 'DEBUG', 72 'propagate': True, 73 }, 74 #logging.getLogger('collect')拿到的logger配置 75 'collect': { 76 'handlers': ['console', 'collect'], 77 'level': 'INFO', 78 } 79 }, 80 } 81 82 83 # ----------- 84 # 用法:拿到俩个logger 85 86 logger = logging.getLogger(__name__) #线上正常的日志 87 collect_logger = logging.getLogger("collect") #领导说,需要为领导们单独定制领导们看的日志
详细解释:
1 import logging 2 ''' 3 一:如果不指定filename,则默认打印到终端 4 二:指定日志级别: 5 指定方式: 6 1:level=10 7 2:level=logging.ERROR 8 9 日志级别种类: 10 CRITICAL = 50 11 FATAL = CRITICAL 12 ERROR = 40 13 WARNING = 30 14 WARN = WARNING 15 INFO = 20 16 DEBUG = 10 17 NOTSET = 0 18 19 三:指定日志级别为ERROR,则只有ERROR及其以上级别的日志会被打印 20 ''' 21 22 23 logging.basicConfig(filename='access.log', 24 format='%(asctime)s - %(name)s - %(levelname)s -%(module)s: %(message)s', 25 datefmt='%Y-%m-%d %H:%M:%S %p', 26 level=10) 27 28 logging.debug('debug') 29 logging.info('info') 30 logging.warning('warning') 31 logging.error('error') 32 logging.critical('critical') 33 logging.log(10,'log') #如果level=40,则只有logging.critical和loggin.error的日志会被打印
可在logging.basicConfig()函数中通过具体参数来更改logging模块默认行为,可用参数有
filename:用指定的文件名创建FiledHandler(后边会具体讲解handler的概念),这样日志会被存储在指定的文件中。
filemode:文件打开方式,在指定了filename时使用这个参数,默认值为“a”还可指定为“w”。
format:指定handler使用的日志显示格式。
datefmt:指定日期时间格式。
level:设置rootlogger(后边会讲解具体概念)的日志级别
stream:用指定的stream创建StreamHandler。可以指定输出到sys.stderr,sys.stdout或者文件,默认为sys.stderr。若同时列出了filename和stream两个参数,则stream参数会被忽略
查看详细:http://blog.csdn.net/zyz511919766/article/details/25136485
日志格式:
1 #_*_coding:utf-8_*_ 2 __author__ = 'Linhaifeng' 3 4 5 import logging 6 formater=logging.Formatter('%(asctime)s - %(name)s - %(levelname)s -%(module)s: %(message)s', 7 datefmt='%Y-%m-%d %H:%M:%S %p',) 8 fh=logging.FileHandler('aaaaaaaaaaaa.log') 9 ch=logging.StreamHandler() 10 11 fh.setFormatter(formater) 12 ch.setFormatter(formater) 13 14 15 log1=logging.getLogger() 16 log1.setLevel(logging.ERROR) 17 18 19 log1.addHandler(fh) 20 log1.addHandler(ch) 21 22 log1.debug('deubug') 23 log1.info('info') 24 log1.warning('warn') 25 log1.error('erro') 26 log1.critical('critical') 27 28 即打印到终端又打印到文件
二、time模块
在python中,通常有这几种方式来表示时间:
- 时间戳(timestamp):通常来说,时间戳表示的是从1970年1月1日00:00:00开始按秒计算的偏移量。我们运行“type(time.time())”,返回的是float类型。
- 格式化的时间字符串(Format String)
- 结构化的时间(struct_time):struct_time元组共有9个元素(年,月,日,时,分,秒,一年中第几周,一年中第几天,夏令时)
1 import time 2 #----------------------------------------------------------------------------- 3 print(time.time()) #时间戳 1502204962.2637985 4 print(time.strftime("%Y-%m-%d %X")) #格式化时间字符串 “2017-08-08 23:10:32” 5 print(time.localtime()) #本地时区的结构化时间struct_time 6 print(time.gmtime()) #UTC标准时区结构化时间struct_time
其中计算机认识的时间只能是‘时间戳’格式,而程序员可处理的或者说人类能看懂的时间有:‘格式化的时间字符串’,‘结构化的时间’,于是有了下图的转换关系
1 #--------------------------------按图1进行转换---------------------------------# 2 #strftime(format[,t]):把一个代表时间的元组或者struct_time(如由time.localtime()和time.gmtime()返回)转化为格式化的时间字符串, 3 # 如果t未指定,将传入time.localtime()。如果元组中任何一个元素越界,ValueError的错误将会被抛出。 4 print(time.strftime('%Y-%m-%d %X',time.localtime())) 5 print(time.strftime('%Y-%m-%d %X')) 6 print(time.strftime('%Y-%m-%d %X',time.gmtime())) 7 print(time.localtime().tm_mon) 8 9 # time.strptime(string[,format]) 10 # 把一个格式化时间字符串转化为struct_time,实际上它和strftime()是逆操作 11 print(time.strptime('2017-08-08 15:40:43','%Y-%m-%d %X')) 12 13 #time.struct_time(tm_year=2017, tm_mon=8, tm_mday=8, tm_hour=15, tm_min=40, tm_sec=43, tm_wday=1, tm_yday=220, tm_isdst=-1) 14 #在这个函数中,format默认为:"%a %b %d %H:%M:%S %Y"。
1 #--------------------------------按图2转换时间-------------------------------# 2 #asctime([t]):把一个表示时间的元组或者struct_time表示为这种形式:'Wed Aug 9 00:09:21 2017' 3 #如果没有参数,将会将time.localtime()作为参数传入 4 print(time.asctime()) 5 6 #ctime([secs]):把一个时间戳(按秒计算的浮点数)转化为time.asctime()的形式。如果参数未给或者 7 #为None的时候,将会默认time.time()为参数,它的作用相当于time.asctime(time.localtime(sece))。 8 print(time.ctime()) #Wed Aug 9 00:15:18 2017 9 print(time.ctime(time.time())) #Wed Aug 9 00:16:39 2017
1 #------------------其他用法---------------------# 2 time.sleep(3) 3 #线程推迟指定的时间运行,单位为秒
三、os模块
os模块是与操作系统交互的一个接口
1 os.getcwd() 获取当前工作目录,即当前python脚本工作的目录路径 2 os.chdir("dirname") 改变当前脚本工作目录;相当于shell下cd 3 os.curdir 返回当前目录: ('.') 4 os.pardir 获取当前目录的父目录字符串名:('..') 5 os.makedirs('dirname1/dirname2') 可生成多层递归目录 6 os.removedirs('dirname1') 若目录为空,则删除,并递归到上一级目录,如若也为空,则删除,依此类推 7 os.mkdir('dirname') 生成单级目录;相当于shell中mkdir dirname 8 os.rmdir('dirname') 删除单级空目录,若目录不为空则无法删除,报错;相当于shell中rmdir dirname 9 os.listdir('dirname') 列出指定目录下的所有文件和子目录,包括隐藏文件,并以列表方式打印 10 os.remove() 删除一个文件 11 os.rename("oldname","newname") 重命名文件/目录 12 os.stat('path/filename') 获取文件/目录信息 13 os.sep 输出操作系统特定的路径分隔符,win下为"\\",Linux下为"/" 14 os.linesep 输出当前平台使用的行终止符,win下为"\t\n",Linux下为"\n" 15 os.pathsep 输出用于分割文件路径的字符串 win下为;,Linux下为: 16 os.name 输出字符串指示当前使用平台。win->'nt'; Linux->'posix' 17 os.system("bash command") 运行shell命令,直接显示 18 os.environ 获取系统环境变量 19 os.path.abspath(path) 返回path规范化的绝对路径 20 os.path.split(path) 将path分割成目录和文件名二元组返回 21 os.path.dirname(path) 返回path的目录。其实就是os.path.split(path)的第一个元素 22 os.path.basename(path) 返回path最后的文件名。如何path以/或\结尾,那么就会返回空值。即os.path.split(path)的第二个元素 23 os.path.exists(path) 如果path存在,返回True;如果path不存在,返回False 24 os.path.isabs(path) 如果path是绝对路径,返回True 25 os.path.isfile(path) 如果path是一个存在的文件,返回True。否则返回False 26 os.path.isdir(path) 如果path是一个存在的目录,则返回True。否则返回False 27 os.path.join(path1[, path2[, ...]]) 将多个路径组合后返回,第一个绝对路径之前的参数将被忽略 28 os.path.getatime(path) 返回path所指向的文件或者目录的最后存取时间 29 os.path.getmtime(path) 返回path所指向的文件或者目录的最后修改时间 30 os.path.getsize(path) 返回path的大小
在Linux和Mac平台上,该函数会原样返回path,在windows平台上会将路径中所有字符转换为小写,并将所有斜杠转换为饭斜杠。 >>> os.path.normcase('c:/windows\\system32\\') 'c:\\windows\\system32\\' 规范化路径,如..和/ >>> os.path.normpath('c://windows\\System32\\../Temp/') 'c:\\windows\\Temp' >>> a='/Users/jieli/test1/\\\a1/\\\\aa.py/../..' >>> print(os.path.normpath(a)) /Users/jieli/test1 print(os.path.join('C:\\','a','b','c','d.txt')) print(os.path.join('C:\\','a','b','D:\\','c','d.txt')) print(os.path.normcase('c:/wiNdows\\system32\\') ) print(os.path.normpath('c://wIndows\\System32\\../Temp/') ) a='/Users/jieli/test1/\\\a1/\\\\aa.py/../..' print(os.path.normpath(a))
1 os路径处理 2 #方式一:推荐使用 3 import os 4 #具体应用 5 import os,sys 6 possible_topdir = os.path.normpath(os.path.join( 7 os.path.abspath(__file__), 8 os.pardir, #上一级 9 os.pardir, 10 os.pardir 11 )) 12 sys.path.insert(0,possible_topdir) 13 14 15 #方式二:不推荐使用 16 os.path.dirname(os.path.dirname(os.path.dirname(os.path.abspath(__file__))))
四、sys模块
1 sys.argv 命令行参数List,第一个元素是程序本身路径 2 sys.exit(n) 退出程序,正常退出时exit(0) 3 sys.version 获取Python解释程序的版本信息 4 sys.maxint 最大的Int值 5 sys.path 返回模块的搜索路径,初始化时使用PYTHONPATH环境变量的值 6 sys.platform 返回操作系统平台名称
1 import sys 2 import time 3 for i in range(100): 4 sys.stdout.write('\r%s' % ('#' * i)) 5 sys.stdout.flush() 6 time.sleep(0.5)
1 import sys 2 import time 3 for i in range(100): 4 time.sleep(0.5) 5 print('\r%s' %('#'*i),end='',file=sys.stdout,flush=True)
1 #==============知识储备====================# 2 #指定宽度 3 print('[%-10.3f]' %3.22) #总宽度为10,保留3位小数点 4 #打印结果 5 #[3.220 ] 6 7 #打印%号,用%% 8 width=10 9 print('[%%-%ds]' %width) 10 #打印结果 11 #[%-10s] 12 13 #嵌套的% 14 width=10 15 print(('[%%-%ds]' %width) %('hello')) 16 #[hello ] 17 18 #=================实现打印进度条函数==================# 19 import sys 20 import time 21 def progress(percent,width=50): 22 if percent >=100: 23 percent=100 24 show_str=('[%%-%ds]' %width) %(int(width*percent/100)*'#') #字符串拼接的嵌套使用 25 print("\r%s %d%%" %(show_str,percent),end='',file=sys.stdout,flush=True) 26 27 #=====================应用=============================# 28 data_size=330333 29 recv_size=0 30 31 while recv_size < data_size: 32 time.sleep(0.5) #模拟数据的传输延迟 33 recv_size+=1024 #每次收1024 34 recv_per=int(100*(recv_size/data_size)) #接收的比例 35 progress(recv_per,width=30) #进度条的宽度30
五、random模块
1 import random 2 print(random.random()) #(0,1) ----float 大于0且小于1之间的小数 3 print(random.randint(1,3)) #[1,3] 大于等于1且小于等于3之间的整数 4 print(random.randrange(1,3)) #[1,3] 大于等于1且小于3之间的整数 5 print(random.choice([1,'23',[4,5]])) #1或者23或者[4,5] 6 print(random.sample([1,'23',[4,5],[10,11]],2)) #从指定序列中随机获取指定长度的片断。sample函数不会修改原有序列。 7 print(random.uniform(1,3)) #大于1小于3的小数,如:2.9896973832195934 8 9 item=[1,3,5,7,9] 10 random.shuffle(item) #打乱item的顺序,相当于'洗牌' 11 print(item)
1 def make_code(n): 2 res='' 3 for i in range(n): 4 s1=chr(random.randint(65,90)) 5 s2=str(random.randint(0,10)) 6 res+=random.choice([s1,s2]) 7 return res 8 9 print(make_code(9))
六、序列化 json & pickle 模块
eval内置方法可以将一个字符串转换成python对象,不过,eval方法是有局限性的,对于普通的数据类型,json.loads和eval都能用,但遇到特殊类型的时候,eval就不管用了,所以eval的重点还是通常用来执行一个字符串表达式,并返回表达式的值。
1 import json 2 x="[null,true,false,1]" 3 # print(eval(x)) #报错,无法解析null类型,而json就可以 4 print(json.loads(x))
什么是序列化?
把对象(变量)从内存中变成可存储或传输的过程称为序列化,在python中叫picking,在其他语言中也被称之为serialization,marshalling,flattening等等,都是一个意思。
为什么要序列化?
1、持久保持状态
2、跨平台数据交互
序列化之后,不仅可以把序列化后的内容写入磁盘,还可以通过网络传输到别的机器上,如果收发的双方约定好使用一种序列化的格式,那么便打破了平台/语言差异化带来的限制,实现那跨平台数据交互。
反过来,把变量内容从序列化的对象重新读到内存里称之为反序列化,即unpiclking
1、json
要在不同的编程语言之间传递对象,就必须把对象序列化为标准格式,比如xml,但更好的方法是序列化为json,因为json表示出来就是一个字符串,可以被所有语言读取,也可以方便地存储到磁盘或者通过网络传输。json不仅是标准格式,并且比xml更快,而且可以直接在web页面中读取,非常方便。
json表示的对象就是标准的javaScript语言的对象,json和python内置的数据类型对应关系如下:
1 import json 2 dic={'name':'alvin','age':23,'sex':'male'} 3 print(type(dic)) #<class 'dict'> 4 5 j=json.dumps(dic) 6 print(type(j)) #<class 'str'> 7 8 f=open('test','w') 9 f.write(j) #-----等价于json.dummp(dic,f) 10 f.close() 11 #---------------------反序列化<br> 12 13 f=open('test') 14 data=json.loads(f.read()) #等价于data=json.load(f) 15 print(data) 16 print(type(data)) 17 18 dic={'name':'egon','age':18} 19 json.dump(dic,open('b.json','w')) 20 print(json.load(open('b.json','r'))['name'])
1 import json 2 #dct="{'1':111}"#json 不认单引号 3 #dct=str({"1":111})#报错,因为生成的数据还是单引号:{'one': 1} 4 5 dct='{"1":"111"}' 6 print(json.loads(dct)) 7 8 #conclusion: 9 # 无论数据是怎样创建的,只要满足json格式,就可以json.loads出来,不一定非要dumps的数据才能loads 10 11 注意点
2、pickle
1 import pickle 2 dic={'name':'alvin','age':23,'sex':'male'} 3 print(type(dic)) #<class 'dict'> 4 5 j=pickle.dumps(dic) 6 print(type(j)) #<class 'bytes'> 7 8 f=open('test_pickle','wb') #注意w写入的是str,wb是写入bytes 9 f.write(j) #---------------等价于pickle.dump(dic,f) 10 f.close() 11 12 #------------------------------反序列化 13 f=open('test_pickle','rb') 14 data=pickle.loads(f.read()) #等价于data=pickle.load(f) 15 print(data['name'])
七、shelve模块
shelve模块比pickle模块简单,只有一个open函数,返回类似字典的对象,可读,可写,key必须为字符串,而值可以是python所支持的数据类型
1 import shelve 2 #----------------------------------shelve序列化 3 f=shelve.open(r'shelve.shl') 4 f['stu1_info']={'name':'fang','age':28} #可以直接以字典的方式写入 5 f['stu2_info']={'name':'test','age':28} 6 f.close() 7 8 #-----------------------------------shelve反序列化 9 odj=shelve.open(r'shelve.shl') 10 print(odj['stu1_info']['name'])
八、re模块
1、什么是正则?
正则就是用一些具有特殊含义的符号组合到一起(称为正则表达式)来描述字符或者字符串的方法,或者说:正则就是用来描述一类事务的规则。(在python中)它內嵌在python中,并通过re模块实现,正则表达式模式被编译成一系列的字节码,然后由用c编写的匹配引擎执行。
2、常用匹配模式(元字符)
模式 | 描述 |
\w | 匹配字母数字下划线 |
\W | 匹配非字母数字下划线 |
\s | 匹配任意空白字符,等价于[\t\n\r\f] |
\S | 匹配任意非空字符 |
\d | 匹配任意数字,等价于[0-9] |
\D | 匹配任意非数字 |
\A | 匹配字符串开始 |
\Z | 匹配字符串结束,如果是存在换行,只匹配到换行前结束字符串 |
\z | 匹配字符串结束 |
\G | 匹配最后匹配完成的位置 |
\n | 匹配一个换行符 |
\t | 匹配一个制表符 |
^ | 匹配字符串的开头 |
$ | 匹配字符串的结尾 |
. | 匹配任意字符,除了换行符,当re.DOTALL标记被指定时,则可以匹配包括换行符的任意字符。 |
[....] | 用来表示一组字符,单独列出:[amk]匹配'a','m'或'k' |
[^...] | 不在[]中的字符:[^abc]匹配除了a,b,c之外的字符。 |
* | 匹配0个或多个的表达式。 |
+ | 匹配1个或多个的表达式。 |
? | 匹配0个或1个由前面的正则表达式定义的片段,非贪婪方式。 |
{n} | 精准匹配n个前面表达式 |
{n,m} | 匹配n到m次由前面的正则表达式定义的片段,贪婪方式。 |
a|b | 匹配a或b。 |
() | 匹配括号内的表达式,也表示一个组。 |
示例:
1 #一对一的匹配 2 'hello'.replace(old,new) 3 'hello'.find('pattern') 4 print('hello'.find('pattern')) 5 6 #正则匹配 7 import re 8 #\w与\W 9 print(re.findall('\w','hello word 123')) #['h', 'e', 'l', 'l', 'o', 'w', 'o', 'r', 'd', '1', '2', '3'] 10 print(re.findall('\W','hello word 123 \n \t')) #[' ', ' ', ' ', '\n', ' ', '\t'] 11 12 #\s与\S #\n \t都是空,都可以被\s匹配 13 print(re.findall('\s','hello word 123 \n \t')) #[' ', ' ', ' ', '\n', ' ', '\t'] 14 print(re.findall('\S','hello word 123 \n \t')) #['h', 'e', 'l', 'l', 'o', 'w', 'o', 'r', 'd', '1', '2', '3'] 15 16 #\n与\t 17 print(re.findall('\n','hello word 123 \n \t')) #['\n'] 18 print(re.findall('\t','hello word 123 \n \t')) #['\t'] 19 20 #\d与\D 21 print(re.findall('\d','hello word 123 \n \t')) #['1', '2', '3'] 22 print(re.findall('\D','hello word 123 \n \t')) #['h', 'e', 'l', 'l', 'o', ' ', 'w', 'o', 'r', 'd', ' ', ' ', '\n', ' ', '\t'] 23 24 #\A与\Z 25 print(re.findall('\Ahe','hello word 123 \n \t')) #['he'] \A == ^ 26 print(re.findall('123\Z','hello word 123')) #['123'] \Z == $ 27 28 #^与$ 29 print(re.findall('^h','hello word 123')) #['h'] 30 print(re.findall('3$','hello word 123')) #['3'] 31 32 #重复匹配: |.| * | ? |.* |.* ? | + | {n, m} | 33 # . 本身代表任意一个字符 34 print(re.findall('a.b','a1b a*b a b aaab')) #['a1b', 'a*b', 'a b', 'aab'] 35 print(re.findall('a.b','a\nb')) #[] 36 print(re.findall('a.b','a\nb',re.S)) #['a\nb'] #匹配空字符 37 print(re.findall('a.b','a\nb',re.DOTALL)) #['a\nb'] #匹配空字符 38 39 #[]内部可以有多个字符,但是本身只配多个字符中的一个 40 print(re.findall('a[0-9][0-9]c','a a12c a1c a*c a2c a c a\nc',re.S)) 41 print(re.findall('a[a-zA-Z]c','aac abc aAc a12c a1c a*c a2c a c a\nc',re.S)) 42 print(re.findall('a[^a-zA-Z]c','aac abc aAc a12c a1c a*c a2c a c a\nc',re.S)) 43 print(re.findall('a[\+\/\*\-]c','a-c a+c a/c aac abc aAc a12c a1c a*c a2c a c a\nc',re.S)) 44 45 #\:转义 46 print(re.findall(r'a\\c','a\c abc')) #rawstring 47 48 #? * + {}:左边有几个字符,如果有的话,贪婪匹配 49 # *左边那一个字符有0个或者无穷个 50 print(re.findall('ab*','a ab abb abbb abbbb bbbbbb')) #['a', 'ab', 'abb', 'abbb', 'abbbb'] 51 print(re.findall('ab{0,}','a ab abb abbb abbbb bbbbbb')) #['a', 'ab', 'abb', 'abbb', 'abbbb'] 52 53 #?左边那一个字符有0个或者1个 54 print(re.findall('ab?','aab a ab aaaa')) #['a', 'ab', 'a', 'ab', 'a', 'a', 'a', 'a'] 55 56 #+左边那一个字符有1个或者无穷个 57 print(re.findall('ab+','a ab abb abbb abbbb bbbbbb')) #['ab', 'abb', 'abbb', 'abbbb'] 58 print(re.findall('ab{1,}','a ab abb abbb abbbb bbbbbb')) #['ab', 'abb', 'abbb', 'abbbb'] 59 60 #{n,m}左边的字符有n-m次 61 print(re.findall('ab{3}','a ab abb abbb abbbb bbbbbb')) #['abbb', 'abbb'] 62 print(re.findall('ab{2,3}','a ab abb abbb abbbb bbbbbb')) #['abb', 'abbb', 'abbb'] 63 64 65 # .* .*? 匹配所有 66 #.*贪婪匹配 67 print(re.findall('a.*c','a123c456c')) #['a123c456c'] 68 #.*?非贪婪匹配 69 print(re.findall('a.*?c','a123c456c')) #['a123c'] 70 71 #| 72 print(re.findall('company|companies','Too many companies have gone bankrupt, and the next one is my company')) #['companies', 'company'] 73 print(re.findall('compan|companies','Too many companies have gone bankrupt, and the next one is my company')) #['compan', 'compan'] 74 75 #():分组,只返回()内的 76 print(re.findall('ab','abababab123')) #['ab', 'ab', 'ab', 'ab'] 77 print(re.findall('(ab)','abababab123')) #['ab', 'ab', 'ab', 'ab'] 78 print(re.findall('(a)b','abababab123')) #['a', 'a', 'a', 'a'] 79 print(re.findall('a(b)','abababab123')) #['b', 'b', 'b', 'b'] 80 print(re.findall('(ab)+','abababab123')) #['ab'] 81 print(re.findall('(?:ab)+','abababab123')) #['abababab'] 82 83 print(re.findall('compan(y|ies)','Too many companies have gone bankrupt, and the next one is my company')) #['ies', 'y'] 84 print(re.findall('compan(?:y|ies)','Too many companies have gone bankrupt, and the next one is my company')) #['companies', 'company']
1 # ===========================re模块提供的方法介绍=========================== 2 import re 3 #1 4 print(re.findall('e','alex make love') ) #['e', 'e', 'e'],返回所有满足匹配条件的结果,放在列表里 5 #2# re.search 6 print(re.search('e','alex make love').group()) #e,只到找到第一个匹配然后返回一个包含匹配信息的对象,该对象可以通过调用group()方法得到匹配的字符串,如果字符串没有匹配,则返回None。 7 print(re.search('ab','abababab123').group()) #匹配就不找了 8 print(re.search('ab','12aasssdddssssssss3')) #匹配不到返回None 9 print(re.search('ab','12aasssdddsssssssab3sssssss').group()) 10 #3 re.match 11 print(re.match('e','alex make love')) #None,同search,不过在字符串开始处进行匹配,完全可以用search+^代替match 12 print(re.match('ab','123ab456')) #print(re.search('^ab','123ab456')) 13 #4 re.split 切割 re.split(pattern, string, maxsplit=0) maxsplit=1分离一次,默认为0,不限制次数 14 print(re.split('[ab]','abcd')) #['', '', 'cd'],先按'a'分割得到''和'bcd',再对''和'bcd'分别按'b'分割 15 16 #5 re.sub 替换 17 print('===>',re.sub('a','A','alex make love')) #===> Alex mAke love,不指定n,默认替换所有 18 print('===>',re.sub('a','A','alex make love',1)) #===> Alex make love 19 print('===>',re.sub('a','A','alex make love',2)) #===> Alex mAke love 20 print('===>',re.sub('^(\w+)(.*?\s)(\w+)(.*?\s)(\w+)(.*?)$',r'\5\2\3\4\1','alex make love')) #===> love make alex 21 22 print('===>',re.subn('a','A','alex make love')) #===> ('Alex mAke love', 2),结果带有总共替换的个数 23 24 25 #6 re.compile 编译正则表达式 26 obj=re.compile('\d{2}') 27 28 print(obj.search('abc123eeee').group()) #12 29 print(obj.findall('abc123eeee')) #['12'],重用了obj
练习:
1 #计算器作业参考:http://www.cnblogs.com/wupeiqi/articles/4949995.html 2 expression='1-2*((60+2*(-3-40.0/5)*(9-2*5/3+7/3*99/4*2998+10*568/14))-(-4*3)/(16-3*2))' 3 4 content=re.search('\(([\-\+\*\/]*\d+\.?\d*)+\)',expression).group() #(-3-40.0/5)
作业:
开发一个简单的python计算器
1 实现加减乘除及拓号优先级解析 2 用户输入 1 - 2 * ( (60-30 +(-40/5) * (9-2*5/3 + 7 /3*99/4*2998 +10 * 568/14 )) - (-4*3)/ (16-3*2) )等类似公式后,必须自己解析里面的(),+,-,*,/符号和公式(不能调用eval等类似功能偷懒实现),运算后得出结果,结果必须与真实的计算器所得出的结果一致
九、shutil模块
高级的文件、文件夹、压缩包处理模块
shutil.copyfileodj(fsrc,fdst [,length])
将文件内容拷贝到另一个文件中
1 import shutil 2 shutil.copyfileobj(open('a.xml','r'),open('b.xml','w'))
shutil.copyfile(src,dst)
拷贝文件
1 shutil.copyfile('f1.log','f2.log') #目标文件无需存在
shutil.copymode(src,dst)
仅拷贝权限,内容,组,用户均不变。
1 shutil.copymode('f1.log','f2.log') #目标文件必须存在
shutil.copystat(src,dst)
仅拷贝状态的信息,包括:mode bits,atime,mtime,flags
1 shutil.copystat('f1.log','f2.log') #目标文件必须存在
shutil.copy(src,dst)
拷贝文件和权限
1 shutil.copy('f1.log','f2.log')
shutil.copy2(src,dst)
拷贝文件和状态信息
1 shutil.copy2('f1.log','f2.log')
shutil.ignore_patterns(*patterns)
shutil.copytree(src,dst,symlinks=False,ignore=None)
递归的去拷贝文件夹
1 shutil.copytree('a','b',ignore=shutil.ignore_patterns('b.xml')) #目标目录不能存在,注意对a目录父目录要有可写权限,ignore的意思是排除
shutil.copytree('a','b',symlinks=True,ignore=shutil.ignore_patterns('b.xml')) ''' 通常的拷贝都把软连接拷贝成硬链接,即对待软链接来说,创建新的文件 '''
shutil.rmtree(path[,ignore_errors[,onerror])
递归的去删除文件
shutil.rmtree('b')
shutil.mone(src,dst)
递归的去移动文件,它类似mv命令,其实就是重命名
shutil.move('a','c')
shutil.make_archive(base_name,format,.....)
创建压缩包并返回文件路径,例如:zip、tar
- base_name:压缩包的文件名,也可以是压缩包的路径。只是文件名时,则保存至当前目录,否则保存至指定路径,如data_bak =====》保存至当前路径,如:/tmp/data_bak ==》保存至/tmp/
- format:压缩包种类,zip,tar,bztar,gztar
- root_dir:要压缩的文件夹路径(默认当前目录)
- owner:用户,默认当前用户
- group:组,默认当前组
- logger:用于记录日志,通常是logging.Logger对象
1 #将a下的文件打包放置当前程序目录 2 ret=shutil.make_archive('data_bak','gztar',root_dir='a') 3 4 #将a下的文件打包放置/tmp/目录 5 ret=shutil.make_archive('/tmp/data_bak','gztar',root_dir='a')
shutil对压缩包的处理是调用ZipFile和TarFile两个模块来进行的,详细:
1 import zipfile 2 #压缩 3 z= zipfile.ZipFile('data_bak.zip','w') 4 z.write('f2.log') #会把压缩包里的文件情况在写入 5 z.close() 6 7 #解压 8 z=zipfile.ZipFile('data_bak.zip','r') 9 z.extractall(path='.') 10 z.close()
1 import tarfile 2 #压缩 3 t=tarfile.open('data_bak.tar.gz','w') 4 t.add('s2.py') 5 t.add('s1.py') 6 t.close() 7 8 #解压 9 t=tarfile.open('data_bak.tar.gz','r') 10 t.extractall('/data_bak') 11 t.close()
十、xml模块
xml是实现不同语言或程序之间进行数据交换的协议,跟json差不多,但json使用起来更简单,不过,在json还没有诞生的年代,大家只能选择用xml,至今很多传统公司如金融行业的很多系统接口还是主要是xml。
xml的格式如下,就是通过<>节点来区别数据结构的:
1 <?xml version="1.0"?> 2 <data> 3 <country name="Liechtenstein"> 4 <rank updated="yes">2</rank> 5 <year>2008</year> 6 <gdppc>141100</gdppc> 7 <neighbor name="Austria" direction="E"/> 8 <neighbor name="Switzerland" direction="W"/> 9 </country> 10 <country name="Singapore"> 11 <rank updated="yes">5</rank> 12 <year>2011</year> 13 <gdppc>59900</gdppc> 14 <neighbor name="Malaysia" direction="N"/> 15 </country> 16 <country name="Panama"> 17 <rank updated="yes">69</rank> 18 <year>2011</year> 19 <gdppc>13600</gdppc> 20 <neighbor name="Costa Rica" direction="W"/> 21 <neighbor name="Colombia" direction="E"/> 22 </country> 23 </data>
xml协议在各个语言里都是支持的,在python中可以用以下模块操作xml
1 # print(root.iter('year')) #全文搜索 2 # print(root.find('country')) #在root的子节点找,只找一个 3 # print(root.findall('country')) #在root的子节点找,找所有
1 import xml.etree.ElementTree as ET 2 3 tree = ET.parse('a.xml') 4 root=tree.getroot() #查看a.xml 里的跟 5 print(root.tag) 6 7 #遍历xml文档 8 for child in root: 9 print('=====>',child.tag) 10 for i in child: 11 print(i.tag,i.attrib,i.text) 12 13 #查找element元素的三种方式 14 years=root.iter('year') #扫描整个xml文档树,找到所有 15 for i in years: 16 print(i) 17 18 res1=root.find('country') #谁来调,就从谁下一层开始找,只找一个 19 print(res1) 20 21 res2=root.findall('country') #谁来调,就从谁下一层开始找,只找所有 22 print(res2) 23 24 #修改 25 years=root.iter('year') #扫描整个xml文档树,找到所有 26 for year in years: 27 year.text=str(int(year.text)+1) 28 year.set('updated','yes') 29 year.set('version','1.0') 30 tree.write('a.xml') 31 32 #删除 33 for county in root.iter('country'): 34 # print(county.tag) 35 rank=county.find('rank') 36 if int(rank.text) > 10: 37 county.remove(rank) 38 tree.write('a.xml') 39 40 #增加节点 41 for county in root.iter('country'): 42 e=ET.Element('egon') 43 e.text='hello' 44 e.attrib={'age':'18'} 45 county.append(e) 46 tree.write('a.xml')
自己创建xml文档
1 import xml.etree.ElementTree as ET 2 3 4 new_xml = ET.Element("namelist") 5 name = ET.SubElement(new_xml,"name",attrib={"enrolled":"yes"}) 6 age = ET.SubElement(name,"age",attrib={"checked":"no"}) 7 sex = ET.SubElement(name,"sex") 8 sex.text = '33' 9 name2 = ET.SubElement(new_xml,"name",attrib={"enrolled":"no"}) 10 age = ET.SubElement(name2,"age") 11 age.text = '19' 12 13 et = ET.ElementTree(new_xml) #生成文档对象 14 et.write("test.xml", encoding="utf-8",xml_declaration=True) 15 16 ET.dump(new_xml) #打印生成的格式
十一、configparser模块
配置文件如下:
1 # 注释1 2 ; 注释2 3 4 [section1] 5 k1 = v1 6 k2:v2 7 user=egon 8 age=18 9 is_admin=true 10 salary=31 11 12 [section2] 13 k1 = v1
读取
1 import configparser 2 config=configparser.ConfigParser() 3 config.read('a.cfg') 4 5 #查看所有的标题 6 res=config.sections() #['section1', 'section2'] 7 print(res) 8 9 #查看标题section1下所有key=value的key #print(config.options(config.sections()[0])) 10 options=config.options('section1') 11 print(options) #['k1', 'k2', 'user', 'age', 'is_admin', 'salary'] 12 13 #查看标题section1下所有key=value的(key,value)格式 14 item_list=config.items('section1') 15 print(item_list) #[('k1', 'v1'), ('k2', 'v2'), ('user', 'egon'), ('age', '18'), ('is_admin', 'true'), ('salary', '31')] 16 17 #查看某个标题下的某个配置项的值===》字符串格式 18 val=config.get('section1','user') 19 print(val) #egon 20 21 #查看某个标题下的某个配置项的值===》整数格式 22 val=config.getint('section1','age') 23 print(val) #18 24 25 #查看某个标题下的某个配置项的布尔值 26 val=config.getboolean('section1','is_admin') 27 print(val) #True 28 29 #查看标题section1下salary的值=>浮点型格式 30 val=config.getfloat('section1','salary') 31 print(val) #31.0
修改
import configparser config=configparser.ConfigParser() config.read('a.cfg') #删除整个标题section2 config.remove_section('section2') #删除标题section1下的某个k1和k2 config.remove_option('section1','k1') config.remove_option('section1','k2') #判断是否存在某个标题 print(config.has_section('section1')) #判断标题section1下是否有user print(config.has_option('section1','')) #添加一个标题 config.add_section('egon') #在标题egon下添加name=egon,age=18的配置 config.set('egon','name','egon') config.set('egon','age',18) #报错,必须是字符串 #最后将修改的内容写入文件,完成最终的修改 config.write(open('a.cfg','w'))
十二、hashlib模块
hash:一种算法,3.x里代替了md5模块和sha模块,主要提供SHA1,SHA224,SHA256,SHA384,SHA512,MD5算法。
三个特点:
1、内容相同则hash运算结果相同,内容稍微改变则变
2、不可逆推
3、相同算法:无论校验多长的数据,得到的哈希值长度固定。
1 import hashlib 2 3 m=hashlib.md5()# m=hashlib.sha256() 4 5 m.update('hello'.encode('utf8')) 6 print(m.hexdigest()) #5d41402abc4b2a76b9719d911017c592 7 8 m.update('alvin'.encode('utf8')) 9 10 print(m.hexdigest()) #92a7e713c30abbb0319fa07da2a5c4af 11 12 m2=hashlib.md5() 13 m2.update('helloalvin'.encode('utf8')) 14 print(m2.hexdigest()) #92a7e713c30abbb0319fa07da2a5c4af 15 16 ''' 17 注意:把一段很长的数据update多次,与一次update这段长数据,得到的结果一样 18 但是update多次为校验大文件提供了可能。 19 '''
以上加密算法虽然非常厉害,但时候存在缺陷,即:通过撞车可以反解。所以,有必要对加密算法中添加自定义key再来做加密
1 import hashlib 2 3 m=hashlib.md5('baiducom'.encode('utf-8')) #15f1c4faad7a036902d4e3130dbec759 4 m.update('hello'.encode('utf-8')) 5 print(m.hexdigest())
1 import hashlib 2 passwds=[ 3 'alex3714', 4 'alex1313', 5 'alex94139413', 6 'alex123456', 7 '123456alex', 8 'a123lex', 9 ] 10 def make_passwd_dic(passwds): 11 dic={} 12 for passwd in passwds: 13 m=hashlib.md5() 14 m.update(passwd.encode('utf-8')) 15 dic[passwd]=m.hexdigest() 16 return dic 17 18 def break_code(cryptograph,passwd_dic): 19 for k,v in passwd_dic.items(): 20 if v == cryptograph: 21 print('密码是===>\033[46m%s\033[0m' %k) 22 23 cryptograph='aee949757a2e698417463d47acac93df' 24 break_code(cryptograph,make_passwd_dic(passwds)) 25 26 模拟撞库破解密码
python还有一个hmac模块,它内部对我们创建key和内容进行进一步的处理然后再加密:
1 import hmac 2 h=hmac.new('baiducom'.encode('utf-8')) 3 h.update('hello'.encode('utf-8')) 4 print(h.hexdigest()) #ad65bcafe954d54650e5a1911c64d7c5
1 #要想保证hmac最终结果一致,必须保证: 2 #1:hmac.new括号内指定的初始key一样 3 #2:无论update多少次,校验的内容累加到一起是一样的内容 4 5 import hmac 6 7 h1=hmac.new(b'egon') 8 h1.update(b'hello') 9 h1.update(b'world') 10 print(h1.hexdigest()) 11 12 h2=hmac.new(b'egon') 13 h2.update(b'helloworld') 14 print(h2.hexdigest()) 15 16 h3=hmac.new(b'egonhelloworld') 17 print(h3.hexdigest()) 18 19 ''' 20 f1bf38d054691688f89dcd34ac3c27f2 21 f1bf38d054691688f89dcd34ac3c27f2 22 bcca84edd9eeb86f30539922b28f3981 23 '''
十三、suprocess模块
1 import subprocess 2 3 ''' 4 sh-3.2# ls /Users/egon/Desktop |grep txt$ 5 mysql.txt 6 tt.txt 7 事物.txt 8 ''' 9 10 res1=subprocess.Popen('ls /Users/jieli/Desktop',shell=True,stdout=subprocess.PIPE) 11 res=subprocess.Popen('grep txt$',shell=True,stdin=res1.stdout, 12 stdout=subprocess.PIPE) 13 14 print(res.stdout.read().decode('utf-8')) 15 16 17 #等同于上面,但是上面的优势在于,一个数据流可以和另外一个数据流交互,可以通过爬虫得到结果然后交给grep 18 res1=subprocess.Popen('ls /Users/jieli/Desktop |grep txt$',shell=True,stdout=subprocess.PIPE) 19 print(res1.stdout.read().decode('utf-8')) 20 21 22 #windows下: 23 # dir | findstr 'test*' 24 # dir | findstr 'txt$' 25 import subprocess 26 res1=subprocess.Popen(r'dir C:\Users\Administrator\PycharmProjects\test\函数备课',shell=True,stdout=subprocess.PIPE) 27 res=subprocess.Popen('findstr test*',shell=True,stdin=res1.stdout, 28 stdout=subprocess.PIPE) 29 30 print(res.stdout.read().decode('gbk')) #subprocess使用当前系统默认编码,得到结果为bytes类型,在windows下需要用gbk解码