python--常用模块
1、os
python编程时,经常和文件、目录打交道,这是就离不了os模块。os模块包含普遍的操作系统功能,与具体的平台无关
os.getcwd() 获取当前工作目录,即当前python脚本工作的目录路径 os.chdir("dirname") 改变当前脚本工作目录;相当于shell下cd os.curdir 返回当前目录: ('.') os.pardir 获取当前目录的父目录字符串名:('..') os.makedirs('dirname1/dirname2') 可生成多层递归目录 os.removedirs('dirname1') 若目录为空,则删除,并递归到上一级目录,如若也为空,则删除,依此类推 os.mkdir('dirname') 生成单级目录;相当于shell中mkdir dirname os.rmdir('dirname') 删除单级空目录,若目录不为空则无法删除,报错;相当于shell中rmdir dirname os.listdir('dirname') 列出指定目录下的所有文件和子目录,包括隐藏文件,并以列表方式打印 os.remove() 删除一个文件 os.rename("oldname","newname") 重命名文件/目录 os.stat('path/filename') 获取文件/目录信息 os.sep 输出操作系统特定的路径分隔符,win下为"\\",Linux下为"/" os.linesep 输出当前平台使用的行终止符,win下为"\t\n",Linux下为"\n" os.pathsep 输出用于分割文件路径的字符串 os.name 输出字符串指示当前使用平台。win->'nt'; Linux->'posix' os.system("bash command") 运行shell命令,直接显示 os.environ 获取系统环境变量 os.path.abspath(path) 返回path规范化的绝对路径 os.path.split(path) 将path分割成目录和文件名二元组返回 os.path.dirname(path) 返回path的目录。其实就是os.path.split(path)的第一个元素 os.path.basename(path) 返回path最后的文件名。如何path以/或\结尾,那么就会返回空值。即os.path.split(path)的第二个元素 os.path.exists(path) 如果path存在,返回True;如果path不存在,返回False os.path.isabs(path) 如果path是绝对路径,返回True os.path.isfile(path) 如果path是一个存在的文件,返回True。否则返回False os.path.isdir(path) 如果path是一个存在的目录,则返回True。否则返回False os.path.join(path1[, path2[, ...]]) 将多个路径组合后返回,第一个绝对路径之前的参数将被忽略 os.path.getatime(path) 返回path所指向的文件或者目录的最后存取时间 os.path.getmtime(path) 返回path所指向的文件或者目录的最后修改时间
更多os详情:点击
os路径处理 #方式一:推荐使用 import os #具体应用 import os,sys possible_topdir = os.path.normpath(os.path.join( os.path.abspath(__file__), os.pardir, #上一级 os.pardir, os.pardir )) sys.path.insert(0,possible_topdir) #方式二:不推荐使用 os.path.dirname(os.path.dirname(os.path.dirname(os.path.abspath(__file__))))
2、sys
此模块可供访问由解释器使用或维护的变量和与解释器进行交互的函数
sys.argv 命令行参数List,第一个元素是程序本身路径 sys.exit(n) 退出程序,正常退出时exit(0) sys.version 获取Python解释程序的版本信息 sys.maxint 最大的Int值 sys.path 返回模块的搜索路径,初始化时使用PYTHONPATH环境变量的值 sys.platform 返回操作系统平台名称 sys.stdout.write('please:') val = sys.stdin.readline()[:-1]
更多sys详情:点击
#=========知识储备========== #进度条的效果 [# ] [## ] [### ] [#### ] #指定宽度 print('[%-15s]' %'#') print('[%-15s]' %'##') print('[%-15s]' %'###') print('[%-15s]' %'####') #打印% print('%s%%' %(100)) #第二个%号代表取消第一个%的特殊意义 #可传参来控制宽度 print('[%%-%ds]' %50) #[%-50s] print(('[%%-%ds]' %50) %'#') print(('[%%-%ds]' %50) %'##') print(('[%%-%ds]' %50) %'###') #=========实现打印进度条函数========== import sys import time def progress(percent,width=50): if percent >= 1: percent=1 show_str=('[%%-%ds]' %width) %(int(width*percent)*'#') print('\r%s %d%%' %(show_str,int(100*percent)),file=sys.stdout,flush=True,end='') #=========应用========== data_size=1025 recv_size=0 while recv_size < data_size: time.sleep(0.1) #模拟数据的传输延迟 recv_size+=1024 #每次收1024 percent=recv_size/data_size #接收的比例 progress(percent,width=70) #进度条的宽度70
3、time
时间相关的操作,时间有三种表示方式:
- 时间戳 1970年1月1日之后的秒,即:time.time()
- 格式化的字符串 2014-11-11 11:11, 即:time.strftime('%Y-%m-%d')
- 结构化时间 元组包含了:年、日、星期等... time.struct_time 即:time.localtime()
3.1、time模块主要函数演示:
1、time.process_time() 功能:测量处理器的运算时间,但是不包括sleep时间,因为sleep只是把你的程序挂起,不太稳定。 >>> import time >>> time.process_time() 0.8736056 #--------------------------------------------------------------------------------- 2、time.altzone() 功能:返回与utc的时间的时间差,以秒计算 >>> import time >>> time.altzone -32400 >>> time.altzone/3600 -9.0 注:感觉有点不太准确,为什么是-9时呢?无解,先忘记它吧! #--------------------------------------------------------------------------------- 3、time.asctime() 功能:返回时间格式:'Thu Mar 30 16:47:39 2017'(星期 月 日 时间 年) >>> import time >>> time.asctime() 'Thu Mar 30 16:47:39 2017' #返回 星期 月 日 时间 年 #--------------------------------------------------------------------------------- 4、time.localtime() 功能:返回本地时间的struct _time的格式的对象,也可以把时间戳转换成成struct _time的格式的对象 >>> import time >>> t = time.localtime() #返回本地时间的对象,通过对象获取对应的年月日等信息 >>> t time.struct_time(tm_year=2017, tm_mon=3, tm_mday=30, tm_hour=16, tm_min=52, tm_sec=10, tm_wday=3, tm_yday=89, tm_isdst=0) >>> t.tm_hour # 获取小时数 16 #--------------------------------------------------------------------------------- 5、time.time() 功能:返回当前时间的时间戳(1970年纪元后经过的浮点秒数) >>> import time #返回当前时间的时间戳 >>> time.time() 1490864724.061428 #跟localtime()结合起来返回当前时间对象 >>> time.localtime(time.time()) time.struct_time(tm_year=2017, tm_mon=3, tm_mday=30, tm_hour=17, tm_min=5, tm_sec=38, tm_wday=3, tm_yday=89, tm_isdst=0) # 给当前时间加上3个小时,注意了,localtime中只能介绍秒级别的,所以是3600*3表示3个小时 >>> time.localtime(time.time() + 3600*3) time.struct_time(tm_year=2017, tm_mon=3, tm_mday=30, tm_hour=20, tm_min=5, tm_sec=53, tm_wday=3, tm_yday=89, tm_isdst=0) #跟asctime结合起来用 生成当前时间格式 >>> time.asctime( time.localtime( time.time() ) ) 'Thu Mar 30 17:06:26 2017' 注:为啥是1970年呢?因为1970年1月1日被当做unix操作系统的诞生元年。 #--------------------------------------------------------------------------------- 6.time.gmtime() 功能:返回当前utc时间(伦敦时间) >>> import time >>> time.gmtime() #返回utc的时间struct time 格式 time.struct_time(tm_year=2017, tm_mon=3, tm_mday=30, tm_hour=9, tm_min=25, tm_sec=13, tm_wday=3, tm_yday=89, tm_isdst=0) >>> time.asctime(time.gmtime()) 'Thu Mar 30 09:26:14 2017' #伦敦时间 >>> time.asctime(time.localtime()) 'Thu Mar 30 17:26:14 2017' #北京时间,两者正好相差8个小时 注:没啥用处?知道就行。 #--------------------------------------------------------------------------------- 7、time.strptime() 功能:把时间格式的字符串转成struct_time格式的时间对象 >>> import time >>> time.strptime("2017-03-30 17:30","%Y-%m-%d %H:%M") #转换为struct_time格式的时间对象 time.struct_time(tm_year=2017, tm_mon=3, tm_mday=30, tm_hour=17, tm_min=30, tm_sec=0, tm_wday=3, tm_yday=89, tm_isdst=-1) #--------------------------------------------------------------------------------- 8、time.mktime() 功能:把struct_time时间对象转成时间戳 >>> import time #生成struct_time时间对象 >>> t = time.strptime("2017-03-30 17:30","%Y-%m-%d %H:%M") #时间对象转成时间戳 >>> t2_stamp = time.mktime(t) >>> t2_stamp 1490866200.0 #--------------------------------------------------------------------------------- 9、time.strftime() 功能:struct_time时间对象转换成时间字符串 >>> import time #生成struct_time时间对象 >>> t = time.strptime("2017-03-30 17:30","%Y-%m-%d %H:%M") #把时间对象转换成时间格式的字符串 >>> m = time.strftime("%Y-%m-%d-%H-%M.log",t) >>> m '2017-03-30-17-30.log' #不传入时间对象,默认是当前时间 >>> m = time.strftime("%Y-%m-%d-%H-%M.log") >>> m '2017-03-30-17-56.log' 当然,中间如果需要用时间戳转换的话,你还可以这样,代码如下: >>> import time #生成struct_time时间对象 >>> t = time.strptime("2017-03-30 17:30","%Y-%m-%d %H:%M") #把时间对象转成时间戳 >>> t2_stamp = time.mktime(t) #再通过localtime函数把时间戳转成struct_time时间对象 >>> t3 = time.localtime(t2_stamp) #把时间对象转换成时间格式的字符串 >>> m = time.strftime("%Y-%m-%d-%H-%M.log",t) >>> m '2017-03-30-17-30.log'
3.2、时间格式转换关系图
3.3、转换表格
4、datetime
datatime模块重新封装了time模块,提供更多接口,提供的类有:date,time,datetime,timedelta,tzinfo
1、datetime.datetime.now() 功能:返回当前时间,格式如:2016-08-19 12:47:03.941925 >>> import datetime >>> print(datetime.datetime.now()) 2017-03-31 10:22:09.819373 #--------------------------------------------------------------------------------- 2、datetime.date.fromtimestamp() 功能:时间戳转换为日期格式 >>> import datetime,time >>> t = datetime.date.fromtimestamp(time.time()) >>> print(t) #把当天日期的时间戳转换为当天日期 2017-03-31 #--------------------------------------------------------------------------------- 3、datetime.timedelta() 功能:对某个时间的加减 >>> import datetime #当前时间加3天 >>> t1 = datetime.datetime.now() + datetime.timedelta(days=3) >>> print(t1) 2017-04-03 10:42:50.714910 #当前时间减3天 >>> t1 = datetime.datetime.now() - datetime.timedelta(days=3) >>> print(t1) 2017-03-28 10:43:17.260111 #当前时间减3天 >>> t1 = datetime.datetime.now() + datetime.timedelta(days=-3) >>> print(t1) 2017-03-28 10:43:35.758742 #当前时间加3个小时 >>> t1 = datetime.datetime.now() + datetime.timedelta(hours=3) >>> print(t1) 2017-03-31 13:44:24.805354 #当前时间加30分钟 >>> t1 = datetime.datetime.now() + datetime.timedelta(minutes=30) >>> print(t1) 2017-03-31 11:14:55.990195 #--------------------------------------------------------------------------------- 4、时间替换 >>> import datetime >>> c_time = datetime.datetime.now() #当前时间输出 >>> print(c_time) 2017-03-31 10:47:22.682289 #时间替换 >>> update_c_time = c_time.replace(minute=3,hour=2) #替换后的时间输出 >>> print(update_c_time) 2017-03-31 02:03:22.682289 #--------------------------------------------------------------------------------- 5、日期提取 time = datetime.datetime.now() #提前周几 week_time = date_conversion(time.weekday()) #提取当前时间 date_time = time.date() #提取当前日期并且格式化 time_time = time.time().strftime("%H:%M:%S")
5、random
我们经常会使用一些随机数,或者需要写一些随机数的代码,random就能很好的解决这些问题。
关于数字的一些随机操作函数:
1、random.random() 功能:随机返回一个小数 >>> import random >>> random.random() 0.14090974546903268 #随机返回一个小数 #--------------------------------------------------------------------------------- 2、random.randint(a,b) 功能:随机返回a到b之间任意一个数,包括b >>> import random >>> random.randint(1,5) 5 #可以返回5 >>> random.randint(1,5) 2 #--------------------------------------------------------------------------------- 3、random.randrange(start, stop=None, step=1) 功能:随机返回start到stop,但是不包括stop值 >>> import random >>> random.randrange(5) #不能随机返回5 4 >>> random.randrange(5) 1 #--------------------------------------------------------------------------------- 4、random.sample(population, k) 功能:从population中随机获取k个值,以列表的形式返回 >>> import random >>> random.sample(range(10),3) #从0-9返回3个随机数 [3, 1, 0] >>> random.sample('abcdefghi',3) #从'abcdefghi'中返回3个字符 ['a', 'h', 'b']
6、string:
关于字符串一些随机操作函数:
1、string.ascii_letters 功能:返回大小写字母的字符串 >>> import string >>> string.ascii_letters 'abcdefghijklmnopqrstuvwxyzABCDEFGHIJKLMNOPQRSTUVWXYZ' #返回大小写字母字符串 #--------------------------------------------------------------------------------- 2、string.ascii_lowercase 功能:返回小写字母的字符串 >>> import string >>> string.ascii_lowercase 'abcdefghijklmnopqrstuvwxyz' #返回小写字母的字符串 #--------------------------------------------------------------------------------- 3、string.ascii_uppercase 功能:返回大写字母的字符串 >>> import string >>> string.ascii_uppercase 'ABCDEFGHIJKLMNOPQRSTUVWXYZ' #返回大写字母的字符串 #--------------------------------------------------------------------------------- 4、string.digits 功能:返回0-9数字的字符串 >>> import string >>> string.digits '0123456789' #返回0-9数字的字符串 #--------------------------------------------------------------------------------- 5、string.punctuation 功能:返回所有特殊字符,并以字符串形式返回 >>> import string >>> string.punctuation '!"#$%&\'()*+,-./:;<=>?@[\\]^_`{|}~' #返回所有特殊字符,并以字符串的形式返回
验证码小例子:
>>> import random,string >>> str_source = string.ascii_lowercase + string.digits #大写字母字符和0-9数字字符串拼接 >>> random.sample(str_source,6) #取6个随机字符 ['f', '1', 'a', 'm', 'j', 'h'] >>> ''.join(random.sample(str_source,6)) #生成一个随机数字符串 'f84bsj'
import random checkcode = '' for i in range(4): current = random.randrange(0,4) if current != i: #如果当前的loop i不等于随机数,就取出65-90中的随机字符 temp = chr(random.randint(65,90)) else: temp = random.randint(0,9) checkcode += str(temp) print(checkcode)
7、logging
程序都有记录日志的需求,并且日志中包含的信息即有正常的程序访问日志,还可能有错误,警告等信息输出,python的logging模块提供了标准的日志接口,你可以通过它存储各种格式的日志,logging的日志可以分为debug,info,warning,error和critical 5个级别
7.1、日志等级
Level |
When it’s used |
---|---|
|
Detailed information, typically of interest only when diagnosing problems. |
|
Confirmation that things are working as expected. |
|
An indication that something unexpected happened, or indicative of some problem in the near future (e.g. ‘disk space low’). The software is still working as expected. |
|
Due to a more serious problem, the software has not been able to perform some function. |
|
A serious error, indicating that the program itself may be unable to continue running. |
日志级别有五个,分别是:debug,info,warning,error和critical,其中debug级别最低,critical级别最高,级别越低,打印的日志等级越多
7.2、format的日志格式
%(name)s |
Logger的名字 |
%(levelno)s |
数字形式的日志级别 |
%(levelname)s |
文本形式的日志级别 |
%(pathname)s |
调用日志输出函数的模块的完整路径名,可能没有 |
%(filename)s |
调用日志输出函数的模块的文件名 |
%(module)s |
调用日志输出函数的模块名 |
%(funcName)s |
调用日志输出函数的函数名 |
%(lineno)d |
调用日志输出函数的语句所在的代码行 |
%(created)f |
当前时间,用UNIX标准的表示时间的浮 点数表示 |
%(relativeCreated)d |
输出日志信息时的,自Logger创建以 来的毫秒数 |
%(asctime)s |
字符串形式的当前时间。默认格式是 “2003-07-08 16:49:45,896”。逗号后面的是毫秒 |
%(thread)d |
线程ID。可能没有 |
%(threadName)s |
线程名。可能没有 |
%(process)d |
进程ID。可能没有 |
%(message)s |
用户输出的消息 |
日志写入文件+format日子格式:
import logging logging.basicConfig(filename="catalina.log", level=logging.INFO, format='%(asctime)s %(module)s:%(levelname)s %(message)s', #格式请见第5点内容 datefmt='%m/%d/%Y %H:%M:%S %p') #需要加上format和datefmt #----日志内容----- logging.debug("logging debug") logging.info("logging info") logging.warning("logging warning") #文件输出 04/11/2017 14:20:22 PM logging_mod:INFO logging info 04/11/2017 14:20:22 PM logging_mod:WARNING logging warning
注:level=loggin.INFO意思是,把日志纪录级别设置为INFO,也就是说,只有比日志是INFO或比INFO级别更高的日志才会被纪录到文件里,所以debug日志没有记录,如果想记录,则级别设置成debug也就是level=loggin.DEBUG
7.3、日志输出语句释义
7.3.1、简介
python使用logging模块记录日志涉及的四个主要类:
①logger:提供了应用程序可以直接使用的接口。
②handler:将(logger创建的)日志记录发送到合适的目的输出。
③filter:提供了细度设备来决定输出哪条日志记录。
④formatter:决定日志记录的最终输出格式。
7.3.2、logger
每个程序在输出信息之前都要获得一个Logger。Logger通常对应了程序的模块名,比如聊天工具的图形界面模块可以这样获得它的Logger:
LOG=logging.getLogger(”chat.gui”)
而核心模块可以这样:
LOG=logging.getLogger(”chat.kernel”)
Logger.setLevel(lel):指定最低的日志级别,低于lel的级别将被忽略。debug是最低的内置级别,critical为最高
Logger.addFilter(filt)、Logger.removeFilter(filt):添加或删除指定的filter
Logger.addHandler(hdlr)、Logger.removeHandler(hdlr):增加或删除指定的handler
Logger.debug()、Logger.info()、Logger.warning()、Logger.error()、Logger.critical():可以设置的日志级别
7.3.3、hander
handler对象负责发送相关的信息到指定目的地。Python的日志系统有多种Handler可以使用。有些Handler可以把信息输出到控制台,有些Logger可以把信息输出到文件,还有些 Handler可以把信息发送到网络上。如果觉得不够用,还可以编写自己的Handler。可以②Handler.setFormatter()通过addHandler()方法添加多个多handler 。
①Handler.setLevel(lel) 指定被处理的信息级别,低于lel级别的信息将被忽略。
ch = logging.StreamHandler()
ch.setLevel(logging.DEBUG)
②Handler.setFormatter() 给这个handler选择一个格式
ch_formatter = logging.Formatter("%(asctime)s - %(name)s - %(levelname)s - %(message)s") #生成格式 ch.setFormatter(ch_formatter) #设置格式
③Handler.addFilter(filt)、Handler.removeFilter(filt)
说明:新增或删除一个filter对象
7.4、handler详解
7.4.1、logging.StreamHandler
说明:使用这个Handler可以向类似与sys.stdout或者sys.stderr的任何文件对象(file object)输出信息,也就是屏幕输出。
它的构造函数是:StreamHandler([strm]),其中strm参数是一个文件对象,默认是sys.stderr。
import logging logger = logging.getLogger("TEST-LOG") logger.setLevel(logging.DEBUG) ch = logging.StreamHandler() #创建一个StreamHandler对象 ch.setLevel(logging.DEBUG) #设置输出StreamHandler日志级别 ch_formatter = logging.Formatter("%(asctime)s - %(name)s - %(levelname)s - %(message)s") ch.setFormatter(ch_formatter) #设置时间格式 logger.addHandler(ch) # 'application' code logger.debug('debug message') logger.info('info message') logger.warn('warn message') logger.error('error message') logger.critical('critical message') #输出 2017-04-11 16:42:49,764 - TEST-LOG - DEBUG - debug message 2017-04-11 16:42:49,764 - TEST-LOG - INFO - info message 2017-04-11 16:42:49,764 - TEST-LOG - WARNING - warn message 2017-04-11 16:42:49,765 - TEST-LOG - ERROR - error message 2017-04-11 16:42:49,765 - TEST-LOG - CRITICAL - critical message
7.4.2、logging.FileHandler
说明:和StreamHandler类似,用于向一个文件输出日志信息,不过FileHandler会帮你打开这个文件。
它的构造函数是:FileHandler(filename[,mode])。filename是文件名,必须指定一个文件名。mode是文件的打开方式。参见Python内置函数open()的用法。默认是’a',即添加到文件末尾。
import logging #create logging logger = logging.getLogger("TEST-LOG") logger.setLevel(logging.DEBUG) fh = logging.FileHandler("debug.log",encoding="utf-8") #日志输出到debug.log文件中 fh.setLevel(logging.INFO) #设置FileHandler日志级别 fh_formatter = logging.Formatter("%(asctime)s %(module)s:%(levelname)s %(message)s") fh.setFormatter(fh_formatter) logger.addHandler(fh) # 'application' code logger.info('info message') logger.warn('warn message') logger.error('error message') logger.critical('critical message') #输出到文件中 2017-04-11 17:09:50,035 logging_screen_output:INFO info message 2017-04-11 17:09:50,035 logging_screen_output:WARNING warn message 2017-04-11 17:09:50,035 logging_screen_output:ERROR error message 2017-04-11 17:09:50,035 logging_screen_output:CRITICAL critical message
7.4.3、logging.handlers.RotatingFileHandler
说明:这个Handler类似于上面的FileHandler,但是它可以管理文件大小。当文件达到一定大小之后,它会自动将当前日志文件改名,然后创建 一个新的同名日志文件继续输出。比如日志文件是chat.log。当chat.log达到指定的大小之后,RotatingFileHandler自动把 文件改名为chat.log.1。不过,如果chat.log.1已经存在,会先把chat.log.1重命名为chat.log.2。。。最后重新创建 chat.log,继续输出日志信息。
它的构造函数是:RotatingFileHandler( filename[, mode[, maxBytes[, backupCount]]]),其中filename和mode两个参数和FileHandler一样。
maxBytes用于指定日志文件的最大文件大小。如果maxBytes为0,意味着日志文件可以无限大,这时上面描述的重命名过程就不会发生。
backupCount用于指定保留的备份文件的个数。比如,如果指定为2,当上面描述的重命名过程发生时,原有的chat.log.2并不会被更名,而是被删除。
import logging #create logging logger = logging.getLogger("TEST-LOG") logger.setLevel(logging.DEBUG) fh = logging.FileHandler("debug.log",encoding="utf-8") #日志输出到debug.log文件中 fh.setLevel(logging.INFO) #设置FileHandler日志级别 fh_formatter = logging.Formatter("%(asctime)s %(module)s:%(levelname)s %(message)s") fh.setFormatter(fh_formatter) logger.addHandler(fh) # 'application' code logger.info('info message') logger.warn('warn message') logger.error('error message') logger.critical('critical message') #输出到文件中 2017-04-11 17:09:50,035 logging_screen_output:INFO info message 2017-04-11 17:09:50,035 logging_screen_output:WARNING warn message 2017-04-11 17:09:50,035 logging_screen_output:ERROR error message 2017-04-11 17:09:50,035 logging_screen_output:CRITICAL critical message 3、logging.handlers.RotatingFileHandler 说明:这个Handler类似于上面的FileHandler,但是它可以管理文件大小。当文件达到一定大小之后,它会自动将当前日志文件改名,然后创建 一个新的同名日志文件继续输出。比如日志文件是chat.log。当chat.log达到指定的大小之后,RotatingFileHandler自动把 文件改名为chat.log.1。不过,如果chat.log.1已经存在,会先把chat.log.1重命名为chat.log.2。。。最后重新创建 chat.log,继续输出日志信息。 它的构造函数是:RotatingFileHandler( filename[, mode[, maxBytes[, backupCount]]]),其中filename和mode两个参数和FileHandler一样。 maxBytes用于指定日志文件的最大文件大小。如果maxBytes为0,意味着日志文件可以无限大,这时上面描述的重命名过程就不会发生。 backupCount用于指定保留的备份文件的个数。比如,如果指定为2,当上面描述的重命名过程发生时,原有的chat.log.2并不会被更名,而是被删除。 import logging from logging import handlers #需要导入handlers logger = logging.getLogger(__name__) log_file = "timelog.log" #按文件大小来分割,10个字节,保留个数是3个 fh = handlers.RotatingFileHandler(filename=log_file,maxBytes=10,backupCount=3) formatter = logging.Formatter('%(asctime)s %(module)s:%(lineno)d %(message)s') fh.setFormatter(formatter) logger.addHandler(fh) logger.warning("test1") logger.warning("test12") logger.warning("test13") logger.warning("test14")
7.4.4、logging.handlers.TimedRotatingFileHandler
说明:这个Handler和RotatingFileHandler类似,不过,它没有通过判断文件大小来决定何时重新创建日志文件,而是间隔一定时间就 自动创建新的日志文件。重命名的过程与RotatingFileHandler类似,不过新的文件不是附加数字,而是当前时间。
它的构造函数是:TimedRotatingFileHandler( filename [,when [,interval [,backupCount]]]),其中filename参数和backupCount参数和RotatingFileHandler具有相同的意义。
interval是时间间隔。when参数是一个字符串。表示时间间隔的单位,不区分大小写。它有以下取值:①S:秒②M:分③H:小时④D:天⑤W :每星期(interval==0时代表星期一)⑥midnight:每天凌晨
import logging from logging import handlers import time logger = logging.getLogger(__name__) log_file = "timelog.log" #按时间来分割文件,按5秒一次分割,保留日志个数是3个 fh = handlers.TimedRotatingFileHandler(filename=log_file,when="S",interval=5,backupCount=3) formatter = logging.Formatter('%(asctime)s %(module)s:%(lineno)d %(message)s') fh.setFormatter(formatter) logger.addHandler(fh) logger.warning("test1") time.sleep(2) logger.warning("test12") time.sleep(2) logger.warning("test13") time.sleep(2) logger.warning("test14") logger.warning("test15")
7.4.5、loggin实例
logging 控制台和文件共同输出日志,需要什么样的输出,只需要添加相应的handler。
流程图:
代码如下:
def log_print(log): """ 指定文件打印日志 :param log 需打印的日志 :return 返回logger 对象 """ # 创建一个logger对象 logger = logging.getLogger("test.log") logger.setLevel(logging.DEBUG) # 创建一个向屏幕输入的handler对象 ch = logging.StreamHandler() ch.setLevel(logging.DEBUG) # 创建一个像文件输入的handler对象 log_file = os.path.join(os.path.join(log_path, "log"), "log") # 向指定路径下文件写入日志 fh = logging.FileHandler(log_file, encoding="utf-8") fh.setLevel(logging.DEBUG) # 设置log输入格式 formatter = logging.Formatter('%(asctime)s - %(name)s - %(levelname)s - %(message)s') ch.setFormatter(formatter) fh.setFormatter(formatter) # logger,添加handler对象 logger.addHandler(ch) logger.addHandler(fh) logger.info(log) # 在记录日志之后移除句柄, 不然会重复打印日志 logger.removeHandler(ch) logger.removeHandler(fh) return logger
8、re
正则表达式(或 RE)是一种小型的、高度专业化的编程语言,(在Python中)它内嵌在Python中,并通过 re 模块实现。你可以为想要匹配的相应字符串集指定规则;该字符串集可能包含英文语句、e-mail地址、TeX命令或任何你想搞定的东西。然后你可以问诸如“这个字符串匹配该模式吗?”或“在这个字符串中是否有部分匹配该模式呢?”。你也可以使用 RE 以各种方式来修改或分割字符串
8.1、常用的正在表达式符号
'.' 默认匹配除\n之外的任意一个字符,若指定flag DOTALL,则匹配任意字符,包括换行 '^' 匹配字符开头,若指定flags MULTILINE,这种也可以匹配上(r"^a","\nabc\neee",flags=re.MULTILINE) '$' 匹配字符结尾,或e.search("foo$","bfoo\nsdfsf",flags=re.MULTILINE).group()也可以 '*' 匹配*号前的字符0次或多次,re.findall("ab*","cabb3abcbbac") 结果为['abb', 'ab', 'a'] '+' 匹配前一个字符1次或多次,re.findall("ab+","ab+cd+abb+bba") 结果['ab', 'abb'] '?' 匹配前一个字符1次或0次 '{m}' 匹配前一个字符m次 '{n,m}' 匹配前一个字符n到m次,re.findall("ab{1,3}","abb abc abbcbbb") 结果'abb', 'ab', 'abb'] '|' 匹配|左或|右的字符,re.search("abc|ABC","ABCBabcCD").group() 结果'ABC' '(...)' 分组匹配,re.search("(abc){2}a(123|456)c", "abcabca456c").group() 结果 abcabca456c '\A' 只从字符开头匹配,re.search("\Aabc","alexabc") 是匹配不到的 '\Z' 匹配字符结尾,同$ '\d' 匹配数字0-9 '\D' 匹配非数字 '\w' 匹配[A-Za-z0-9] '\W' 匹配非[A-Za-z0-9] 's' 匹配空白字符、\t、\n、\r , re.search("\s+","ab\tc1\n3").group() 结果 '\t' '(?P<name>...)' 分组匹配 re.search("(?P<province>[0-9]{4})(?P<city>[0-9]{2})(?P<birthday>[0-9]{4})","371481199306143242").groupdict("city") 结果{'province': '3714', 'city': '81', 'birthday': '1993'}
详细匹配符号:点击
8.2、常用的匹配方法
1、re.match(pattern, string, flags=0) 说明:在string的开始处匹配模式 >>> import re >>> a = re.match('in',"inet addr:10.161.146.134") #从头开始匹配in字符 >>> a.group() 'in' >>> a = re.match('addr',"inet addr:10.161.146.134") #开头匹配不到,所以返回none >>> print(a) None #--------------------------------------------------------------------------------- 2、re.search(pattern, string, flags=0) 说明:在string中寻找模式 >>> import re >>> a = re.search('addr',"inet addr:10.161.146.134") #在字符串中寻找 >>> a.group() 'addr' #--------------------------------------------------------------------------------- 3、re.findall(pattern, string, flags=0) 说明:把匹配到的字符以列表的形式返回 >>> import re >>> re.findall('[0-9]{1,3}',"inet addri:10.161.146.134") ['10', '161', '146', '134'] #符合条件的以列表的形式返回 #--------------------------------------------------------------------------------- 4、re.split(pattern, string, maxsplit=0, flags=0) 说明:匹配到的字符被当做列表分割符 >>> import re >>> re.split('\.',"inet addri:10.161.146.134") ['inet addri:10', '161', '146', '134'] #--------------------------------------------------------------------------------- 5、re.sub(pattern, repl, string, count=0, flags=0) 说明:匹配字符并替换 >>> import re >>> re.sub('\.','-',"inet addri:10.161.146.134") 'inet addri:10-161-146-134' #默认全部替换 >>> re.sub('\.','-',"inet addri:10.161.146.134",count=2) 'inet addri:10-161-146.134' #用count控制替换次数 #--------------------------------------------------------------------------------- 6、finditer(pattern, string) 说明:返回迭代器 >>> import re >>> re.finditer('addr',"inet addr:10.161.146.134") <callable_iterator object at 0x00000000030C4BE0> #返回一个迭代器
8.3、常用方法
1、group([group1, ...]) 说明:获得一个或多个分组截获的字符串;指定多个参数时将以元组形式返回。group1可以使用编号也可以使用别名;编号0代表整个匹配的子串;不填写参数时,返回group(0);没有截获字符串的组返回None;截获了多次的组返回最后一次截获的子串。 >>> import re >>> a = re.search('addr',"inet addr:10.161.146.134") >>> a.group() 'addr' >>> a.group(0) 'addr' #--------------------------------------------------------------------------------- 2、groups(default=None) 说明:以元组形式返回全部分组截获的字符串。相当于调用group(1,2,…last)。default表示没有截获字符串的组以这个值替代,默认为None。这个要跟分组匹配结合起来使用'(...)' >>> import re >>> a = re.search("(\d{2})(\d{2})(\d{2})(\d{4})","320922199508083319") #一个小括号表示一个组,有4个括号,就是4个组 >>> a.groups() ('32', '09', '22', '1995') #--------------------------------------------------------------------------------- 3、groupdict(default=None) 说明:返回以有别名的组的别名为键、以该组截获的子串为值的字典,没有别名的组不包含在内。default含义同上。这个是跟另外一个分组匹配结合起来用的,即:'(?P<name>...)' >>> import re >>> a = re.search("(?P<province>[0-9]{4})(?P<city>[0-9]{2})(?P<birthday>[0-9]{4})","371481199306143242") #以下两种情况获取的值都是一样的 >>> a.groupdict() {'birthday': '1993', 'city': '81', 'province': '3714'} >>> a.groupdict("city") {'birthday': '1993', 'city': '81', 'province': '3714'} #--------------------------------------------------------------------------------- 4、span([group]) 说明:返回(start(group), end(group)) >>> import re >>> a = re.search('addr',"inet addr:10.161.146.134") >>> a.group() 'addr' >>> a.span() #获取'addr'在字符串中的开始位置和结束位置 (5, 9) #--------------------------------------------------------------------------------- 5、start([group]) 说明:返回指定的组截获的子串在string中的起始索引(子串第一个字符的索引),group默认值为0。 >>> import re >>> a = re.search('addr',"inet addr:10.161.146.134") >>> a.group() 'addr' >>> a.span() (5, 9) >>> a.start() #获取字符串的起始索引 5 #--------------------------------------------------------------------------------- 6、end([group]) 说明:返回指定的组截获的子串在string中的结束索引(子串最后一个字符的索引+1),group默认值为0。 >>> import re >>> a = re.search('addr',"inet addr:10.161.146.134") >>> a.group() 'addr' >>> a.span() (5, 9) >>> a.end() #获取string中的结束索引 9 #--------------------------------------------------------------------------------- 7、compile(pattern[, flags]) 说明:根据包含正则表达式的字符串创建模式对象 >>> import re >>> m = re.compile("addr") #创建正则模式对象 >>> n = m.search("inet addr:10.161.146.134") #通过模式对象去匹配 >>> n.group() 'addr'
8.4、反斜杠、其他匹配模式
反斜杠:与大多数编程语言相同,正则表达式里使用"\"作为转义字符,这就可能造成反斜杠困扰。假如你需要匹配文本中的字符"\",那么使用编程语言表示的正则表达式里将需要4个反斜杠"\\\\":前两个和后两个分别用于在编程语言里转义成反斜杠,转换成两个反斜杠后再在正则表达式里转义成一个反斜杠。Python里的原生字符串很好地解决了这个问题,这个例子中的正则表达式可以使用r"\\"表示。同样,匹配一个数字的"\\d"可以写成r"\d"。有了原生字符串,你再也不用担心是不是漏写了反斜杠,写出来的表达式也更直观。
>>> import re >>> a = re.split("\\\\","C:\ \zhangqigao\yhd_settings") >>> a ['C:', ' ', 'zhangqigao', 'yhd_settings'] >>> re.findall('\\','abc\com') Traceback (most recent call last) >>> re.findall('\\\\','abc\com') ['\\'] >>> re.findall(r'\\','abc\com') ['\\']
其他匹配模式:
1、re.I(re.IGNORECASE) 说明:忽略大小写(括号内是完整的写法,下同) >>> import re >>> a = re.search('addr',"inet Addr:10.161.146.134",flags=re.I) >>> a.group() 'Addr' #忽略大小写 #--------------------------------------------------------------------------------- 2、re.M(MULTILINE) 说明:多行模式,改变'^'和'$'的行为,详细请见第2点 >>> import re >>> a = re.search('^a',"inet\naddr:10.161.146.134",flags=re.M) >>> a.group() 'a' #--------------------------------------------------------------------------------- 3、re.S(DOTALL) 说明:点任意匹配模式,改变'.'的行为 >>> import re >>> a = re.search('.+',"inet\naddr:10.161.146.134",flags=re.S) >>> a.group() 'inet\naddr:10.161.146.134'
9、json & pickle
Python中用于序列化的两个模块
- json 用于【字符串】和 【python基本数据类型】 间进行转换
- pickle 用于【python特有的类型】 和 【python基本数据类型】间进行转换
9.1、Json模块提供了四个功能:dumps、dump、loads、load
dumps序列化和loads反序列化
dumps()序列化 import json #导入json模块 info = { 'name':"zhangqigao", "age":22 } with open("test.txt","w") as f: #以普通模式写入 data = json.dumps(info) #把内存对象转为字符串 f.write(data) #写到文件中 #text.txt文件中的内容 {"name": "zhangqigao", "age": 22} #--------------------------------------------------------------------------------- loads()反序列化 import json with open("test.txt","r") as f: #以普通模式读 data = json.loads(f.read()) #用loads反序列化 print(data.get("age")) #输出 22
dump序列化和load反序列化
dump()序列化 import json info = { 'name':"zhangqigao", "age":22 } with open("test.txt","w") as f: #文件以写的方式打开 json.dump(info,f) #第1个参数是内存的数据对象 ,第2个参数是文件句柄 #text.txt文件中的内容 {"name": "zhangqigao", "age": 22} #--------------------------------------------------------------------------------- load()反序列化 import json with open("test.txt","r") as f: #以读的方式打开文件 data = json.load(f) #输入文件对象 print(data.get("age")) #输出 22
小结:
- dumps和loads是成对使用的,dump和load是成对使用的。
- dumps和loads由于序列化的是内容,所以后面要加s,但是dump和load序列化的内容是对象,所以单数。
- json只能处理简单的数据类型,例如:字典、列表、字符串等,不能处理函数等复杂的数据类型。
- json是所有语言通用的,所有语言都支持json,如果我们需要python跟其他语言进行数据交互,那么就用json格式。
9.2、pickle模块提供了四个功能:dumps、dump、loads、load
dumps序列化和loads反序列化
dumps()序列化 import pickle info = { 'name':"zhangqigao", "age":22, } with open("test.txt","wb") as f: #以二进制的形式写入 data = pickle.dumps(info) #序列化成字符串 f.write(data) #写入test.txt 文件中 #输出到test.txt文件中的内容 �}q (X ageqKX nameqX zhangqigaoqu. #--------------------------------------------------------------------------------- loads()反序列化 import pickle with open("test.txt","rb") as f: #以二进制的模式读 data = pickle.loads(f.read()) #反序列化操作 print(data.get("age")) #输出 22
dump序列化和load反序列化
dump()序列化 import pickle info = { 'name':"zhangqigao", "age":22, } with open("test.txt","wb") as f: pickle.dump(info,f) #序列化 #输出 �}q (X ageqKX nameqX zhangqigaoqu. #--------------------------------------------------------------------------------- load()反序列化 import pickle with open("test.txt","rb") as f: data = pickle.load(f) #反序列化成内存对象 print(data.get("age")) #输出 22
小结:
- json值支持简单的数据类型,pickle支持所有的数据类型。
- pickle只能支持python本身的序列化和反序列化,不能用作和其他语言做数据交互,而json可以。
- pickle序列化的是字节,而json序列化的是字符
- pickle序列化的是整个的数据对象,所以反序列化函数时,函数体中的逻辑变了,是跟着心的函数体走的。
- pickle和json在3.0中只能dump一次和load一次,在2.7里面可以dump多次,load多次,以后只记住,只需要dump一次,load一次就可以了。
10、XML
XML是实现不同语言或者程序之间进行数据交换的协议,跟json差不多,但是json使用起来更简单,不过现在仍然有很多传统的公司,像金融行业的很多系统的接口还是XML
10.1、XML实例
<?xml version="1.0"?> <data> <country name="Liechtenstein"> <rank updated="yes">2</rank> <year>2008</year> <gdppc>141100</gdppc> <neighbor name="Austria" direction="E"/> <neighbor name="Switzerland" direction="W"/> </country> <country name="Singapore"> <rank updated="yes">5</rank> <year>2011</year> <gdppc>59900</gdppc> <neighbor name="Malaysia" direction="N"/> </country> <country name="Panama"> <rank updated="yes">69</rank> <year>2011</year> <gdppc>13600</gdppc> <neighbor name="Costa Rica" direction="W"/> <neighbor name="Colombia" direction="E"/> </country> </data>
10.2、查询xml文档内容
import xml.etree.ElementTree as et tree = et.parse("xmltest.xml") root = tree.getroot() #获取根节点 print(root.tag) #打印节点名称 #遍历xml文档 for child in root: print(child.tag,child.attrib) #分别打印子节点名称和子节点属性 #遍历子节点下的所有节点 for i in child: print(i.tag,i.text) #打印子节点下节点的节点名和节点值 #只遍历year节点 for i in child.iter("year"): print("\t",i.tag,i.attrib,i.text) #只遍历year节点 for node in root.iter("year"): print(node.tag,node.text) #打印year的节点名和节点值
注:
- tag是返回节点名,attrib返回节点属性,text返回节点值
- 返回根节点用getroot()方法
- 只遍历某个节点,只需要用iter(节点名)方法
10.3、修改xml文档内容
import xml.etree.ElementTree as et tree = et.parse("xmltest.xml") root = tree.getroot() #修改year节点的值 for node in root.iter("year"): new_year = int(node.text) + 1 #修改节点值 node.text = str(new_year) #修改后强制转换成字符串类型 node.tag = "myyear" #修改节点名 node.set("zhangqigao",'handsome') #修改节点属性 tree.write("xmltest1.xml") #修改完成后,重新写入xml文件(可以是任何文件,包括原来的)
注:可以修改xml文件中的任何内容,包括本身的节点名,修改后一定要有写入xml文件的操作。
10.4、删除node节点
import xml.etree.ElementTree as et tree = et.parse("xmltest.xml") root = tree.getroot() #删除 for country in root.findall("country"): #找到第一层子节点 rank = int(country.find("rank").text) #找到子节点下的'rank'节点的节点值 if rank > 50: root.remove(country) #删除子节点 tree.write("xmltest1.xml") #重新写入xml文件
注:
- findall()从根节点只能根据第一层的子节点名查找,并且返回第一层子节点的内存地址
- find从根节点查找第一层子节点名,返回第一层子节点下的所有节点的内存地址
- 删除子节点用remove()方法
- 删除以后,一定要做重新写入新的xml文件操作
10.5、手动创建xml文件
import xml.etree.ElementTree as et new_xml = et.Element("namelist") #创建根节点 #创建第一层子节点,后面参数依次是:父节点,子节点,子节点属性 name = et.SubElement(new_xml,"name",attrib={"zhangqigao":"handsome"}) #创建第二层子节点 age = et.SubElement(name,"age",attrib={"check":"yes"}) #设置第二层节点值 age.text = '22' sex = et.SubElement(name,"sex") sex.text = "man" #创建另外一个第一层子节点 name2 = et.SubElement(new_xml,"name",attrib={"zhangqigao":"haoshuai"}) #创建其第二层子节点 age = et.SubElement(name2,"age") age.text = '19' ET = et.ElementTree(new_xml) #生成新的xml文档 ET.write("test.xml",encoding="utf-8",xml_declaration=True) #在新xml文件的开头自动添加:<?xml version='1.0' encoding='utf-8'?> et.dump(new_xml) #在屏幕上打印生成的格式
注:et.dump(new_xml)这个有什么作用呢?当你需要直接把字符串传过去,不需要传文件时,用这个就ok了。
11、requests
Python标准库中提供了:urllib等模块以供Http请求,但是,它的 API 太渣了。它是为另一个时代、另一个互联网所创建的。它需要巨量的工作,甚至包括各种方法覆盖,来完成最简单的任务。
发送get请求:
import urllib.request f = urllib.request.urlopen('http://www.webxml.com.cn//webservices/qqOnlineWebService.asmx/qqCheckOnline?qqCode=424662508') result = f.read().decode('utf-8')
发送带有请求头的get请求:
import urllib.request req = urllib.request.Request('http://www.example.com/') req.add_header('Referer', 'http://www.python.org/') r = urllib.request.urlopen(req) result = f.read().decode('utf-8')
Requests 是使用 Apache2 Licensed 许可证的 基于Python开发的HTTP 库,其在Python内置模块的基础上进行了高度的封装,从而使得Pythoner进行网络请求时,变得美好了许多,使用Requests可以轻而易举的完成浏览器可有的任何操作。
安装模块:
pip install requests
使用模块:
get请求:
# 1、无参数实例 import requests ret = requests.get('https://github.com/timeline.json') print(ret.url) print(ret.text) #--------------------------------------------------------------------------------- # 2、有参数实例 import requests payload = {'key1': 'value1', 'key2': 'value2'} ret = requests.get("http://httpbin.org/get", params=payload) print(ret.url) print(ret.text)
post请求:
# 1、基本POST实例 import requests payload = {'key1': 'value1', 'key2': 'value2'} ret = requests.post("http://httpbin.org/post", data=payload) print(ret.text) #--------------------------------------------------------------------------------- # 2、发送请求头和数据实例 import requests import json url = 'https://api.github.com/some/endpoint' payload = {'some': 'data'} headers = {'content-type': 'application/json'} ret = requests.post(url, data=json.dumps(payload), headers=headers) print(ret.text) print(ret.cookies)
其他请求:
requests.get(url, params=None, **kwargs) requests.post(url, data=None, json=None, **kwargs) requests.put(url, data=None, **kwargs) requests.head(url, **kwargs) requests.delete(url, **kwargs) requests.patch(url, data=None, **kwargs) requests.options(url, **kwargs) # 以上方法均是在此方法的基础上构建 requests.request(method, url, **kwargs)
Http请求和XML实例:
实例:检测QQ账号是否在线
import urllib import requests from xml.etree import ElementTree as ET # 使用内置模块urllib发送HTTP请求,或者XML格式内容 """ f = urllib.request.urlopen('http://www.webxml.com.cn//webservices/qqOnlineWebService.asmx/qqCheckOnline?qqCode=424662508') result = f.read().decode('utf-8') """ # 使用第三方模块requests发送HTTP请求,或者XML格式内容 r = requests.get('http://www.webxml.com.cn//webservices/qqOnlineWebService.asmx/qqCheckOnline?qqCode=424662508') result = r.text # 解析XML格式内容 node = ET.XML(result) # 获取内容 if node.text == "Y": print("在线") else: print("离线")
实例:查看火车停靠信息
import urllib import requests from xml.etree import ElementTree as ET # 使用内置模块urllib发送HTTP请求,或者XML格式内容 """ f = urllib.request.urlopen('http://www.webxml.com.cn/WebServices/TrainTimeWebService.asmx/getDetailInfoByTrainCode?TrainCode=G666&UserID=') result = f.read().decode('utf-8') """ # 使用第三方模块requests发送HTTP请求,或者XML格式内容 r = requests.get('http://www.webxml.com.cn/WebServices/TrainTimeWebService.asmx/getDetailInfoByTrainCode?TrainCode=G666&UserID=') result = r.text # 解析XML格式内容 root = ET.XML(result) for node in root.iter('TrainDetailInfo'): print(node.find('TrainStation').text,node.find('StartTime').text,node.tag,node.attrib)
12、hashlib
写程序中,经常需要对字符串进行MD5加密,python中也支持这种加密
12.1、MD5加密
原则:只要你的输入是固定的,你的输出也一定是固定的。MD5是在hash上更改的,主要做文件的一致性
import hashlib m = hashlib.md5() #创建一个MD5对象 m.update(b"zhang") #在python3中需要是2进制的值,所以字符串前加b print(m.hexdigest()) #以16进制打印MD5值 #输出 d0cd2693b3506677e4c55e91d6365bff m.update(b"qigao") print(m.hexdigest()) #输出 0bfca190ecc60e44cbc739ca9c252133
文件MD5加密:
说明:如果我们想得到一个文件所有内容的MD5值,我们所做的方法是循环这个文件,获取每行的MD5值,但是这样生成的MD5值的效率会变慢,因为每一行都需要计算。这样我们还不如直接把文件的所有内容加载出来,直接计算它的MD5值,这样反而快些。
import hashlib m = hashlib.md5() #创建MD5对象m m.update(b"zhang") print(m.hexdigest()) #输出 d0cd2693b3506677e4c55e91d6365bff m.update(b"qigao") print(m.hexdigest()) #输出 0bfca190ecc60e44cbc739ca9c252133 m2 = hashlib.md5() #创建MD5对象m2 m2.update(b"zhangqigao") print(m2.hexdigest()) #输出 0bfca190ecc60e44cbc739ca9c252133
注:由上面的代码可以看出,你读到最后一行的字符串的MD5值跟一下子读取所有内容的MD5值是一样的,这是为什么呢?其实这边update做了一个拼接功能,m.update(b"zhang")是返回的字符串"zhang"的MD5值,但是到了第二个m.update("qigao")的值并不是"qigao"的字符串的MD5值,它需要拼接前面的字符串,应该是m.update(b"zhangqigao")的MD5值,所以相当于m.update(b"zhang"),m.update(b"qigao") = m.update(b"zhang"+b"qigao")。
12.2、sha1加密
import hashlib hash = hashlib.sha1() hash.update(b"zhangqigao") print(hash.hexdigest()) #输出 c8b2a6571067f92133b5b43a085f1ddd36e8c3fb
12.3、sha256加密
说明:sha256用的比较多,相比MD5要更加的安全
import hashlib hash = hashlib.sha256() hash.update(b"zhangqigao") print(hash.hexdigest()) #输出 0634de5fe3d009fd0ec76ab3d97ab0fe37969b696e8d6550797cf3b446dd78ba
12.4、sha384加密
import hashlib hash = hashlib.sha384() hash.update(b"zhangqigao") print(hash.hexdigest()) #输出 3489c64e31671094ca1afde35fd31ee9b09cdb90c3728f31696829e8a56be311e1405d537179e62d236e6d70a4f13ff4
12.5、sha512加密
import hashlib hash = hashlib.sha512() hash.update(b"zhangqigao") print(hash.hexdigest()) #输出 cb09fd5a519b2b075f4aa5965a39657df900fff832b73d161a426512b6023ab8c1c0872a7b2d50055cbd75c4b6f374cda0615be9530f7f4b7dc08ab3f266325d
注意:
- 以上这几种,其实都是对MD5加密的不同算法
- 其中sha256用的最多,比MD5要安全的多
- 有些公司会用加密方式加密,比如:把字符串"zhangqigao",通过一定的算法变成"zhang.qi.gao",当然这种算法自己肯定要知道,然后MD5加密,当然每个公司的加密方式是不一样的。
12.6、hmac加密
其实以上还不是最牛的,最牛的是下面这种,叫hmac加密,它内部是对我们创建key和内容进行处理再进行加密。
散列消息鉴别码,简称HMAC,是一种基于消息鉴别码MAC(Message Authentication Code)的鉴别机制。使用HMAC时,消息通讯的双方,通过验证消息中加入的鉴别密钥K来鉴别消息的真伪;
一般用于网络通信中消息加密,前提是双方先要约定好key,就像接头暗号一样,然后消息发送把用key把消息加密,接收方用key + 消息明文再加密,拿加密后的值 跟 发送者的相对比是否相等,这样就能验证消息的真实性,及发送者的合法性了。
import hmac #导入hmac模块 hash = hmac.new(b"zhang",b"qigao") #zhang是key,qigao是内容 print(hash.hexdigest()) #输出 2f124c86aeb5142246198f77a142e855
更多加密:点击
13、shelve
json也好,还是pickle也好,在python3中只能dump一次和load一次,不能dump多次,和load多次,真想要dump多次和load多次就需要将数据持久化。
13.1、持久化
import shelve #导入shelve模块 def stu_data(name,age): #定义一个函数 print("register stu:",name,age) name = ["test","zhang","qi","gao"] #定义一个列表 info = { "name":"zhangqigao","age":18} #定义一个字典 with shelve.open("shelve_test") as d: d["test"] = name #持久化列表 d["info"] = info #持久化字典 d["func"] = stu_data #持久化函数
代码执行结果:
生成三个文件夹,分别是:shelve_test.dir、shelve_test.dat、shelve_test.bak #--------------------------------------------------------------------------------- ①shelve_test.dir内容 'test', (0, 50) 'func', (1024, 24) 'info', (512, 48) #--------------------------------------------------------------------------------- ②shelve_test.dat内容 �]q (X testqX zhangqX qiqX gaoqe. �}q (X nameqX zhangqigaoqX ageqKu. �c__main__ stu_data q . #--------------------------------------------------------------------------------- ③shelve_test.bak内容 'test', (0, 50) 'func', (1024, 24) 'info', (512, 48)
13.2、解析文件内容
import shelve def stu_data(name,age): #这边一定要定义相同名字的函数,不然执行报错 print("stu:",name,age) with shelve.open("shelve_test") as f: print(f['test']) #解析列表 print(f['info']) #解析字典 print(f["func"]("zhangqsan",22)) #解析函数 #输出 ['test', 'zhang', 'qi', 'gao'] {'age': 18, 'name': 'zhangqigao'} stu: zhangqsan 22 None
13.3、shelve常用方法
update 说明:update方法是如果序列化的值存在,则更新,如果不存在,则新增,用法:update({key:序列化对象}) #dumps到文件中 import shelve info = { "name":"zhangqigao", "age":18 } with shelve.open("shelve_test") as d: d['qigaotest'] = info #变量存在 d.update({'qigaotest':"shuaigaogao"}) #更新已经key为"qigaotest"的值 #loads到内存中 import shelve with shelve.open("shelve_test") as f: print(f.get("qigaotest")) #输出 shuaigaogao #--------------------------------------------------------------------------------- get 说明:把文件中的值load到内存中时,通过get它的key值获取 import shelve with shelve.open("shelve_test") as f: print(f.get("qigaotest")) #或者是f["qigaotest"] #输出 shuaigaogao
小结:
- shelve模块是一个简单的key,value将内存数据通过文件持久化的模块。
- shelve模块可以持久化任何pickle可支持的python数据格式。
- shelve就是pickle模块的一个封装。
- shelve模块是可以多次dump和load。
14、shutil
文件的拷贝、删除、打包、压缩等文件操作
模块常用函数:
1、shutil.copyfileobj(fsrc, fdst) 功能:把一个文件的内容拷贝到另外一个文件中,可以是部分文件内容。 with open("f_old",'r',encoding="utf-8") as f1,\ open("f_new","w",encoding="utf-8") as f2: shutil.copyfileobj(f1,f2) #拷贝文件的内容 注:经过试验,目前试验不出可以拷贝部分文件内容,先忘记可以拷贝部分内容把。 #--------------------------------------------------------------------------------- 2、shutil.copyfile(src, dst) 功能:拷贝文件,但是不拷贝所有权限 shutil.copyfile("f_old","f_new") #同一目录下拷贝文件 shutil.copyfile(r'D:\PycharmProjects\pyhomework\day5\shutil_mode\shutil_mod\f_old',r'd:\f_new') #通过绝对路径拷贝文件 #--------------------------------------------------------------------------------- 3、shutil.copymode(src, dst) 功能:拷贝文件的文件权限 [root@whtest137 ~]# ll total 8 -rwxr-xr-x 1 root root 0 Apr 1 16:05 zhangqigao #有执行权限 -rw-r--r-- 1 whtest whtest 0 Apr 1 16:06 zhangqigao_old #没有执行权限 >>> import os,shutil >>> os.chdir("/root") #拷贝"zhangqigao_old"权限给"zhangqigao" >>> shutil.copymode("zhangqigao_old","zhangqigao") [root@whtest137 ~]# ll total 8 -rw-r--r-- 1 root root 0 Apr 1 16:05 zhangqigao # 获得跟"zhangqigao_old"一样的文件权限 -rw-r--r-- 1 whtest whtest 0 Apr 1 16:06 zhangqigao_old #--------------------------------------------------------------------------------- 4、shutil.copystat(src, dst) 功能:拷贝文件的状态信息,如:mode bits, atime, mtime, flags #两个文件的创建时间和用户权限都不同 [root@jenkins_sh temp]# ll total 0 -rw-r--r-- 1 root root 0 Apr 1 17:31 zhangqigao -rwxr-xr-x 1 jenkins jenkins 0 Apr 1 16:26 zhangqigao_old #python操作 >>> import os,shutil >>> os.chdir("/temp") #zhangqigao 这个文件状态 >>> os.stat("zhangqigao") posix.stat_result(st_mode=33188, st_ino=76808194, st_dev=2053L, st_nlink=1, st_uid=0, st_gid=0, st_size=0, st_atime=1491039109, st_mtime=1491039109, st_ctime=1491039109) #zhangqigao_old的文件状态 >>> os.stat("zhangqigao_old") posix.stat_result(st_mode=33261, st_ino=76808195, st_dev=2053L, st_nlink=1, st_uid=101, st_gid=103, st_size=0, st_atime=1491035188, st_mtime=1491035188, st_ctime=1491035242) #拷贝zhangqigao_old 文件状态给zhangqigao 文件 >>> shutil.copystat("zhangqigao_old","zhangqigao") # 拷贝后,zhangqigao文件的文件状态 >>> os.stat("zhangqigao") posix.stat_result(st_mode=33261, st_ino=76808194, st_dev=2053L, st_nlink=1, st_uid=0, st_gid=0, st_size=0, st_atime=1491035188, st_mtime=1491035188, st_ctime=1491039237) #操作后两个文件比较 [root@jenkins_sh temp]# ll total 0 -rwxr-xr-x 1 root root 0 Apr 1 16:26 zhangqigao #状态包括文件权限,文件创建的时间等,不包括文件所属用户和用户组 -rwxr-xr-x 1 jenkins jenkins 0 Apr 1 16:26 zhangqigao_old #--------------------------------------------------------------------------------- 5、shutil.copy(src, dst) 功能:拷贝文件和文件的权限 #拷贝前 [root@jenkins_sh temp]# ll total 0 -rwxr-xr-x 1 jenkins jenkins 0 Apr 1 16:26 zhangqigao_old #拷贝中 >>> import os,shutil >>> os.chdir("/temp") >>> shutil.copy("zhangqigao_old","zhangqigao") #拷贝结果输出 [root@jenkins_sh temp]# ll total 0 -rwxr-xr-x 1 root root 0 Apr 1 17:42 zhangqigao #拷贝了zhangqigao_old文件和文件权限 -rwxr-xr-x 1 jenkins jenkins 0 Apr 1 16:26 zhangqigao_old #---------------------------------------------------------------------------------66、shutil.copy2(src, dst) 功能:拷贝文件和文件的状态 #拷贝前 [root@jenkins_sh temp]# ll total 0 -rwxr-xr-x 1 jenkins jenkins 0 Apr 1 16:26 zhangqigao_old #拷贝中 >>> import os,shutil >>> os.chdir("/temp") >>> shutil.copy2("zhangqigao_old","zhangqigao") #拷贝后 [root@jenkins_sh temp]# ll total 0 -rwxr-xr-x 1 root root 0 Apr 1 16:26 zhangqigao #拷贝了zhangqigao_old的文件和状态 -rwxr-xr-x 1 jenkins jenkins 0 Apr 1 16:26 zhangqigao_old #--------------------------------------------------------------------------------- 7、shutil.copytree(src, dst) 功能:递归的去拷贝文件,相当于cp -r #操作前 [root@jenkins_sh temp]# ll total 4 drwxr-xr-x 2 root root 4096 Apr 1 17:53 xiaogao [root@jenkins_sh temp]# cd xiaogao/;ll total 0 -rwxr-xr-x 1 root root 0 Apr 1 16:26 zhangqigao -rwxr-xr-x 1 jenkins jenkins 0 Apr 1 16:26 zhangqigao_old #操作中 >>> import os,shutil >>> os.chdir("/temp") >>> shutil.copytree("xiaogao","gaogao") #递归拷贝 #操作结果 [root@jenkins_sh temp]# ll total 8 drwxr-xr-x 2 root root 4096 Apr 1 17:53 gaogao #拷贝成功 drwxr-xr-x 2 root root 4096 Apr 1 17:53 xiaogao [root@jenkins_sh temp]# cd gaogao/;ll total 0 -rwxr-xr-x 1 root root 0 Apr 1 16:26 zhangqigao -rwxr-xr-x 1 root root 0 Apr 1 16:26 zhangqigao_old #--------------------------------------------------------------------------------- 8、shutil.rmtree(path[, ignore_errors[, onerror]]) 功能:递归的去删除文件,相当于:rm -fr #操作前 [root@jenkins_sh temp]# ll total 4 drwxr-xr-x 2 root root 4096 Apr 1 17:53 xiaogao [root@jenkins_sh temp]# cd xiaogao/;ll total 0 -rwxr-xr-x 1 root root 0 Apr 1 16:26 zhangqigao -rwxr-xr-x 1 jenkins jenkins 0 Apr 1 16:26 zhangqigao_old #操作中 >>> import os,shutil >>> os.chdir("/temp") >>> shutil.rmtree("xiaogao") #操作结果 [root@jenkins_sh temp]# ll total 0 #成功删除xiaogao目录 #--------------------------------------------------------------------------------- 9、shutil.move(src, dst) 功能:递归的去移动文件 相当于:mv #操作前 [root@jenkins_sh temp]# ll total 4 drwxr-xr-x 2 root root 4096 Apr 1 18:07 xiaogao -rw-r--r-- 1 root root 0 Apr 1 18:07 zhangqigao #操作中 >>> import shutil >>> shutil.move("/temp/zhangqigao","/temp/xiaogao") #把文件移到目录中 #操作结果 [root@jenkins_sh xiaogao]# ll total 4 drwxr-xr-x 2 root root 4096 Apr 1 18:08 xiaogao [root@jenkins_sh temp]# cd xiaogao/;ll total 0 -rw-r--r-- 1 root root 0 Apr 1 18:07 zhangqigao
压缩/解压缩:
1、shutil.make_archive((base_name, format, root_dir=None,base_dir=None,verbose=0,dry=0,owner=None,group=None,logger=None) 功能:创建压缩包并且返回文件路径,例如:zip,tar base_name : 压缩包的文件名,也可以是压缩包的路径。只是文件名,则保存当前目录,否则保存到指定路径。 format:压缩包种类,'zip','tar','bztar','gztar' root_dir:需要压缩的文件夹路径(默认当前路径) owner:用户,默认当前用户 group:组,默认当前组 logger:用于记录日志,通常是logging.Logger对象 #指定路径 >>> import shutil #把/temp下的xiaogao文件以zip压缩格式压缩,并且存放在/temp/zhangqigao目录下,"/temp/zhangqigao/xiaogao" 中的xiaogao是压缩名 >>> shutil.make_archive("/temp/zhangqigao/xiaogao",'zip',"/temp/xiaogao") '/temp/zhangqigao/xiaogao.zip' #压缩结果 #默认当前路径 >>> shutil.make_archive("xiaogao",'zip',"/temp/xiaogao") '/temp/xiaogao.zip' #--------------------------------------------------------------------------------- 2、zipfile 功能:以zip的形式压缩文件,注意了这个只能压缩文件,不能压缩目录,如果压缩,也只能显示空目录。 import zipfile # 压缩 z = zipfile.ZipFile('laxi.zip', 'w') z.write('a.log') #写入 z.write('data.data') z.close() #关闭 # 解压 z = zipfile.ZipFile('laxi.zip', 'r') z.extractall() #解压 z.close() #--------------------------------------------------------------------------------- 3、tarfile 功能:以tar的形式打包文件,这边能打包所以文件,包括目录 import tarfile # 打包 tar = tarfile.open('your.tar','w') #不加arcname打的是绝对路径,也就是/Users/wupeiqi/PycharmProjects/bbs2.zip,加这个表示你在your.tar中加什么文件就写什么文件名,也就是bbs2.zip tar.add('/Users/wupeiqi/PycharmProjects/bbs2.zip', arcname='bbs2.zip') tar.add('/Users/wupeiqi/PycharmProjects/cmdb.zip', arcname='cmdb.zip') tar.close() # 解压 tar = tarfile.open('your.tar','r') tar.extractall() # 可设置解压地址 tar.close()
小结:
- tar打包不会压缩文件,所以文件的大小没有变
- zip才会压缩,所以压缩后的文件大小会变小
- 一般情况下是先打包再压缩
15、configparser
用于生产和修改常见配置文件的模块
15.1、配置文件格式
[DEFALUT] compressionlevel = 9 serveraliveinterval = 45 compression = yes forwardx11 = yes [bitbucket.org] user = hg [topsecret.server.com] host port = 50022 forwardx11 = no
15.2、创建配置文件
import configparser #导入configparser模块 #创建一个对象 config = configparser.ConfigParser() #配置默认全局配置组 config["DEFALUT"] = {"ServerAliveInterval":"45", "Compression":"yes", "CompressionLevel":"9" } #配置第一个其他组 config["bitbucket.org"] = {} #没有没有赋给一个变量,直接赋值 config["bitbucket.org"]["User"] = 'hg' #配置第二个其他组 config["topsecret.server.com"] = {} #这边就赋给一个变量 topsecret = config["topsecret.server.com"] #通过变量赋值 topsecret["Host Port"] = '50022' topsecret["ForwardX11"] = 'no' #给全局配置组赋值 config["DEFALUT"]["ForwardX11"] = "yes" #操作完毕,把配置的内容写入一个配置文件中 with open("example.ini","w") as configfile: config.write(configfile)
注:其实有的时候我们很少创建,除非是用系统管理,一般直接修改就可以了
15.3、读取配置文件
1、读取配置组 >>> import configparser >>> config = configparser.ConfigParser() >>> config.sections() #不读取配置文件,组名列表为空 [] >>> config.read("example.ini") #读取配置文件,返回配置文件名 ['example.ini'] >>> config.sections() #返回除默认配置组的其他组名 ['bitbucket.org', 'topsecret.server.com'] >>> config.defaults() #读取默认配置组,并返回有序字典 OrderedDict([('compressionlevel', '9'), ('serveraliveinterval', '45'), ('compression', 'yes'), ('forwardx11', 'yes')]) #--------------------------------------------------------------------------------- 2、组名是否存在 >>> 'bitbucket.org' in config #组名存在 True >>> 'zhangqigao.org' in config #组名不存在 False #--------------------------------------------------------------------------------- 3、读取组内的值 >>> config["bitbucket.org"]["User"] #读取"bitbucket.org"配置组中的值 'hg' >>> config["DEFAULT"]["Compression"] #读取默认配置组中的值 'yes' >>> topsecret = config['topsecret.server.com'] #把配置组赋给一个对象 >>> topsecret['ForwardX11'] #通过对象获取值 <strong>'no </strong> #--------------------------------------------------------------------------------- 4、 循环获取组内的key值 >>> for key in config["bitbucket.org"]: #循环打印bitbucket.org组下的key值 ... print(key) ... #输出,只打印默认组和bitbucket.org组的key值 user compressionlevel serveraliveinterval compression forwardx11 >>> for key in config["topsecret.server.com"]:#循环打印topsecret.server.com组下的key值 ... print(key) ... #输出,只打印默认组和topsecret.server.com组的key值 host port forwardx11 compressionlevel serveraliveinterval compression
注:默认组是全局的,所以循环遍历key值时,会遍历从默认组和需要遍历的组一起遍历出来
15.4、增删改查语法
1、配置文件名i.cfg [DEFAULT] k1 = v1 k2 = v2 [section1] k3 = v3 k4:v4 [section2] k5 = 5 #--------------------------------------------------------------------------------- 2、读i.cfg import configparser config = configparser.ConfigParser() config.read("i.cfg") sec = config.sections() print(sec) #输出 ['section1', 'section2'] options = config.options("section2") #返回默认组和section2组的key值 print(options) #输出 ['k5', 'k1', 'k2'] item_list = config.items("section2") #返回默认组和section2组的key-value值 print(item_list) #输出 [('k1', 'v1'), ('k2', 'v2'), ('k5', '5')] val1 = config.get("section2","k1") #获取section2组中k1对应的值,是否可取是按照上面返回的列表 print(val1) #输出 v1 val2 = config.getint("section2","k5") #返回section2中k5的值,这个值返回的int类型的 print(val2) #输出 5 #--------------------------------------------------------------------------------- 3、改写i.cfg ①删除section和option import configparser config = configparser.ConfigParser() config.read("i.cfg") config.remove_option("section1","k3") #删除section1组下的k3 config.remove_section("section2") #删除section2组 with open("i.cfg2","w") as f: #重新写入一个文件 config.write(f) #输出,写入文件的内容 [DEFAULT] k1 = v1 k2 = v2 [section1] k4 = v4 ②添加section import configparser config = configparser.ConfigParser() config.read("i.cfg") sec = config.has_option("section2","k5") #是否存在section2组内有k5 print(sec) #输出 True sec = config.has_section("zhangqigao") #是否存在zhangqigao组 print(sec) #输出 False config.add_section("zhangqigao") #添加section组zhangqigao config.add_section("zhangqigao") #重新写入到一个配置文件中 with open("i.cfg3","w") as f: config.write(f) ③添加或者设置option import configparser config = configparser.ConfigParser() config.read("i.cfg") config.set("zhangqigao","z","18") #设置或者添加zhangqigao中option值 with open("i.cfg3","w") as f: #重新写入文件中 config.write(f)
16、subprocess
操作系统的命令做交互
在没有subprocess这个模块的时候,跟我们的操作系统做交互的主要是这三个模块:os.system()、os.popen()、commands。
1、os.system() 作用:执行操作系统命令,只返回命令的执行状态(0:成功,非0:失败),不返回命令的执行结果。 >>> import os >>> os.system("ls -l") total 16708 -rw-------. 1 root root 1350 Jan 4 01:51 anaconda-ks.cfg -rw-r--r--. 1 root root 8017 Jan 4 01:51 install.log 0 #执行返回的状态 >>> res = os.system("ls -l") total 16708 -rw-------. 1 root root 1350 Jan 4 01:51 anaconda-ks.cfg -rw-r--r--. 1 root root 8017 Jan 4 01:51 install.log >>> res 0 #0: 表示成功 >>> res = os.system("lm") sh: lm: command not found >>> res 32512 #非0:表示失败 #--------------------------------------------------------------------------------- 2、os.popen() 作用:执行操作系统命令,不返回命令的执行状态,只返回命令的执行结果。 >>> import os >>> os.popen("ls -l") <open file 'ls -l', mode 'r' at 0x7f5ded070540> >>> res = os.popen("ls -l") >>> a = res.read() >>> print(a) #打印返回结果 total 16708 -rw-------. 1 root root 1350 Jan 4 01:51 anaconda-ks.cfg -rw-r--r--. 1 root root 8017 Jan 4 01:51 install.log 注:执行popen()不是直接返回命令的执行结果的,而是需要read一下,这是因为popen相当于打开了一个文件,它把结果存到文件中,只不过它是相当于存在内存中了,但是你好像打开文件的样子去取一样。 #--------------------------------------------------------------------------------- 3、commands模块 作用:既可以获取命令的执行状态,也可以获取命令的执行结果,但是只能在python2.7有这个命令,在python3.5之后就没有,还有就是这个模块功能只支持Linux,Windows不支持,这边知道这个命令就行了,先忘记它吧。 >>> import commands #导入commands命令 >>> commands.getstatusoutput("ls -l") (0, 'total 16708\n-rw-------. 1 root root 1350 Jan 4 01:51 anaconda-ks.cfg\n -rw-r--r--. 1 root root 8017 Jan 4 01:51 install.log') #元组的形式返回 >>> res = commands.getstatusoutput("ls -l") >>> res[0] #执行状态 0 >>> print(res[1]) #执行结果 total 16708 -rw-------. 1 root root 1350 Jan 4 01:51 anaconda-ks.cfg -rw-r--r--. 1 root root 8017 Jan 4 01:51 install.log
commands模块在python3.5以后的版本就没有了
subprocess:
1、subprocess.run() 作用:运行命令,返回命令执行的结果(python3.5以后的版本才会有这个命令) >>> import subprocess # python 解析则传入命令的每个参数的列表 >>> subprocess.run(["df","-h"]) Filesystem Size Used Avail Use% Mounted on /dev/mapper/VolGroup-LogVol00 289G 70G 204G 26% / tmpfs 64G 0 64G 0% /dev/shm /dev/sda1 283M 27M 241M 11% /boot CompletedProcess(args=['df', '-h'], returncode=0) # 需要交给Linux shell自己解析,则:传入命令字符串,shell=True >>> subprocess.run("df -h|grep /dev/sda1",shell=True) /dev/sda1 283M 27M 241M 11% /boot CompletedProcess(args='df -h|grep /dev/sda1', returncode=0) 注:看到上面run函数的使用,这边有很多小伙伴有点不解,这边我解释一下:第1种情况是:执行的命令需要让python去解释执行这个命令,执行的命令以及参数,需要以列表的形式传入。第二种情况:但是如果需要交给Linux shell环境去解析的还,这传入命令的字符串,并且声明shell=True即可。 #--------------------------------------------------------------------------------- 2、subprocess.call() 作用:执行命令,返回命令的状态,0或者非0 >>> import subprocess >>> res = subprocess.call(["ls","-l"]) total 26976 -rw-r--r-- 1 1000 1000 10914 Jan 17 15:57 aclocal.m4 drwxr-xr-x 5 root root 4096 May 12 14:21 build -rwxr-xr-x 1 1000 1000 43940 Jan 17 15:57 config.guess >>> res #返回命令的状态 0 #--------------------------------------------------------------------------------- 3、subprocess.check_call() 作用:执行命令,如果执行结果为0,正常返回,否则抛异常 >>> import subprocess >>> res = subprocess.check_call(["ls","-l"]) total 26976 -rw-r--r-- 1 1000 1000 10914 Jan 17 15:57 aclocal.m4 drwxr-xr-x 5 root root 4096 May 12 14:21 build >>> res 0 #--------------------------------------------------------------------------------- 4、subprocess.getstatusoutput() 作用:接收字符串形式的命令,返回元组形式,第1个元素是执行状态,第二个是命令结果 >>> import subprocess >>> subprocess.getstatusoutput('ls /bin/ls') (0, '/bin/ls') #0:执行状态,'bin/ls':执行结果 #--------------------------------------------------------------------------------- 5、subprocess.getoutput() 作用:接收字符串形式的命令,并且返回命令的结果 >>> import subprocess >>> subprocess.getoutput('ls /bin/ls') '/bin/ls' #返回命令的结果 #--------------------------------------------------------------------------------- 6、subprocess.check_output() 作用:执行命令,并且返回结果,不是打印 >>> import subprocess >>> res = subprocess.check_output(["ls","-l"]) >>> res b'total 26976\n-rw-r--r-- 1 1000 1000 10914 Jan 17 15:57 aclocal.m4\n drwxr-xr-x 5 root root 4096 May 12 14:21 build\n -rwxr-xr-x 1 1000 1000 43940 Jan 17 15:57 config.guess\n -rw-r--r-- 1 root root 756903 May 12 14:18 config.log\n' #这边是以字节类型返回的
subprocess.Popen():
其实以上subprocess使用的方法,都是对subprocess.Popen的封装
1、stdout 作用:标准输出 >>> import subprocess >>> res = subprocess.Popen("df -h",shell=True,stdout=subprocess.PIPE) #需要管道标准输出 >>> res.stdout.read() #标准输出 b'Filesystem Size Used Avail Use% Mounted on\n/dev/mapper/VolGroup- LogVol00\n 289G 70G 204G 26% /\ntmpfs 64G 0 64G 0% /dev/shm\n/dev/sda1 283M 27M 241M 11% /boot\n' >>> obj.stdout.close() #关闭标准输出 #--------------------------------------------------------------------------------- 2、stdin 作用:标准输入 >>> import subprocess >>> obj = subprocess.Popen(["python"], stdin=subprocess.PIPE, stdout=subprocess.PIPE, stderr=subprocess.PIPE) >>> obj.stdin.write("hello world") #标准输入 >>> obj.stdin.close() #关闭标准输入 #这里输入完成了是不是的把他的输出读出来? >>> cmd_out = obj.stdout.read() #获取启动的进程的标准输出 >>> obj.stdout.close() #关闭标准输出 >>> cmd_error = obj.stderr.read() #获取启动的进程的标准错误 >>> obj.stderr.close() #关闭启动程序的标准错误 #--------------------------------------------------------------------------------- 3、stderr 作用:标准错误 >>> import subprocess >>> res = subprocess.Popen("lm -l",shell=True,stdout=subprocess.PIPE,stderr=subprocess.PIPE) >>> res.stderr.read() #标准输出错误 '/bin/sh: lm: command not found\n' >>> obj.stderr.close() #关闭启动程序的标准错误 注意:上面的提到的标准输出都为啥都需要等于subprocess.PIPE,这个又是啥呢?原来这个是一个管道,这个需要画一个图来解释一下: #--------------------------------------------------------------------------------- 4、poll() 作用:定时检查命令有没有执行完毕,执行完毕返回0,没有完毕返回None >>> import subprocess >>> res = subprocess.Popen("sleep 20;echo 'hello'",shell=True,stdout=subprocess.PIPE,stderr=subprocess.PIPE) >>> print(res.poll()) None #没有执行完毕 >>> print(res.poll()) #执行完毕 #--------------------------------------------------------------------------------- 5、wait() 作用:等待命令执行完成,并且返回结果状态 >>> res = subprocess.Popen("sleep 20;echo 'hello'",shell=True,stdout=subprocess.PIPE,stderr=subprocess.PIPE) >>> res.wait() ############ 漫长等待中 ############ #等待结束,返回执行结果状态 #--------------------------------------------------------------------------------- 6、terminate() 作用:杀掉启动进程 >>> import subprocess >>> res = subprocess.Popen("sleep 20;echo 'hello'",shell=True,stdout=subprocess.PIPE,stderr=subprocess.PIPE) >>> res.terminate() #杀掉启动的进程 >>> res.stdout.read() #杀掉后,标准输出为空 b'' #--------------------------------------------------------------------------------- 7、communicate() 作用:执行的过程传数据,没什么用,先忘记它吧!以后用到再说 >>> import subprocess >>> obj = subprocess.Popen(["python"], stdin=subprocess.PIPE, stdout=subprocess.PIPE, stderr=subprocess.PIPE) >>> obj.stdin.write("hello world") #标准输入 >>> out_error_list = obj.communicate(timeout=10) >>> print(out_error_list) #输入的结果 ('', ' File "<stdin>", line 1\n hello world\n ^\nSyntaxError: invalid syntax\n') #--------------------------------------------------------------------------------- 8、pid 作用:获取当前执行子shell的程序的进程号 >>> import subprocess >>> res = subprocess.Popen("sleep 20;echo 'hello'",shell=True,stdout=subprocess.PIPE,stderr=subprocess.PIPE) >>> res.pid #获取这个Linux shell的环境的进程号
1、注意:上面的提到的标准输出都为啥都需要等于subprocess.PIPE,这个又是啥呢?原来这个是一个管道,这个需要画一个图来解释一下:
2、可用参数
- args:shell命令,可以是字符串或者序列类型(如:list,元组)
- bufsize:指定缓冲。0 无缓冲,1 行缓冲,其他 缓冲区大小,负值 系统缓冲
- stdin, stdout, stderr:分别表示程序的标准输入、输出、错误句柄
- preexec_fn:只在Unix平台下有效,用于指定一个可执行对象(callable object),它将在子进程运行之前被调用
- close_sfs:在windows平台下,如果close_fds被设置为True,则新创建的子进程将不会继承父进程的输入、输出、错误管道。所以不能将close_fds设置为True同时重定向子进程的标准输入、输出与错误(stdin, stdout, stderr)。
- shell:同上
- cwd:用于设置子进程的当前目录
- env:用于指定子进程的环境变量。如果env = None,子进程的环境变量将从父进程中继承。
- universal_newlines:不同系统的换行符不同,True -> 同意使用 \n
- startupinfo与createionflags只在windows下有效将被传递给底层的CreateProcess()函数,用于设置子进程的一些属性,如:主窗口的外观,进程的优先级等等