python的内置模块(三)
python内置模块之hashlib模块
1、简介
hashlib为加密模块;加密就是将明文数据通过一系列算法变成密文数据(目的就是为了数据的安全)
加密算法:md系列、sha系列、base系列、hmac系列
2、基本使用
import hashlib # 1.先确定算法类型(md5普遍使用) md5 = hashlib.md5() # 2.将明文数据传递给md5算法(update只能接受bytes类型数据) # md5.update('123'.encode('utf8')) md5.update(b'123') # 3.获取加密之后的密文数据(没有规则的一串随机字符串) res = md5.hexdigest() print(res)
注:加密之后的密文数据是没有办法反解密成明文数据的;市面上所谓的破解,其实就是提前算出一系列明文对应的密文,之后对比密文再获取明文
3、详细操作
3.1、明文数据只要相同,无论如何传递加密结果肯定是一样的
import hashlib # 1.先确定算法类型(md5普遍使用) md5 = hashlib.md5() # 2.将明文数据传递给md5算法(update只能接受bytes类型数据) md5.update(b'hellojason123') md5.update(b'hello') md5.update(b'jason') md5.update(b'123') # 4bd388611b31c548eedef14b16c9868c # # 3.获取加密之后的密文数据(没有规则的一串随机字符串) res = md5.hexdigest() print(res) # 4bd388611b31c548eedef14b16c9868c
3.2、密文数据越长表示内部对应的算法越复杂,越难被正向破解
# sha256系列 import hashlib md5 = hashlib.sha256() md5.update('123'.encode('utf8')) res = md5.hexdigest() print(res) # a665a45920422f9d417e4867efdc4fb8a04a1f3fff1fa07e998e86f7f7a27ae3 # md5系列 import hashlib md5 = hashlib.md5() md5.update('123'.encode('utf8')) res = md5.hexdigest() print(res) # 202cb962ac59075b964b07152d234b70
注:密文越长表示算法越复杂,对应的破解算法难度越高;但是越复杂的算法所需要消耗的资源也就越多,密文越长基于网络发送需要占据的数据也就越大,具体使用什么算法取决于项目的要求,一般情况下md5足够了。
3.3、涉及到用户密码存储,其实都是密文,只要用户知道明文是什么
原因:
1、内部程序员无法得知明文数据
2、数据泄露也无法得知明文数据
3.4、加盐处理
就是在对明文数据做加密处理过程前添加一些干扰项
# import hashlib # 1.先确定算法类型(md5普遍使用) md5 = hashlib.md5() # 2.将明文数据传递给md5算法(update只能接受bytes类型数据) md5.update('123'.encode('utf8')) # 加盐(干扰项) md5.update('公司内部自己定义的盐'.encode('utf8')) # 真实数据 md5.update(b'hellojason123') # 3.获取加密之后的密文数据(没有规则的一串随机字符串) res = md5.hexdigest() print(res) # 4326fe1839d7c4186900eb2b356d4f8a
3.5、动态加盐
就是在对明文数据做加密处理过程前添加一些变化的干扰项
import hashlib # 1.先确定算法类型(md5普遍使用) md5 = hashlib.md5() # 2.将明文数据传递给md5算法(update只能接受bytes类型数据) md5.update('123'.encode('utf8')) # 动态加盐(干扰项) 当前时间 用户名的部分 uuid(随机字符串(永远不会重复)) import time res1 = str(time.time()) md5.update(res1.encode('utf8')) # 真实数据 md5.update(b'hellojason123') # 3.获取加密之后的密文数据(没有规则的一串随机字符串) res = md5.hexdigest() print(res) # 4326fe1839d7c4186900eb2b356d4f8a
3.6、校验文件一致性
当文件不是很大的情况下,可以将所有文件内部全部加密处理;但是如果文件特别大的时候,全部加密处理相当的耗时耗资源,这个时候就可以采用切片读取的方式
import hashlib md5 = hashlib.md5() with open(r'a.txt','rb') as f: for line in f: md5.update(line) real_data = md5.hexdigest() print(real_data) # 29d8ea41c610ee5d1e76dd0a42c7e60a with open(r'a.txt','rb') as f: for line in f: md5.update(line) error_data = md5.hexdigest() print(error_data) # 738a56b49f24884ba758d1e4ab6ceb74 import os # 读取文件总大小 res = os.path.getsize(r'a.txt') # 指定分片读取策略(读几段 每段几个字节) 10 f.seek() read_method = [0,res//4,res//2,res]
python内置模块之logging日志模块
1、日志等级
# 日志有五个等级(从上往下重要程度不一样) logging.debug('debug级别') # 10 logging.info('info级别') # 20 logging.warning('warning级别') # 30 logging.error('error级别') # 40 logging.critical('critical级别') # 50 '''默认记录的级别在30及以上'''
2、简单使用
import logging file_handler = logging.FileHandler(filename='x1.log', mode='a', encoding='utf-8',) logging.basicConfig( format='%(asctime)s - %(name)s - %(levelname)s -%(module)s: %(message)s', datefmt='%Y-%m-%d %H:%M:%S %p', handlers=[file_handler,], level=logging.ERROR ) logging.error('加油')
3、日志模块详细介绍
import logging # 1.logger对象:负责产生日志 logger = logging.getLogger('转账记录') # 2.filter对象:负责过滤日志(直接忽略) # 3.handler对象:负责日志产生的位置 hd1 = logging.FileHandler('a1.log',encoding='utf8') # 产生到文件的 hd2 = logging.FileHandler('a2.log',encoding='utf8') # 产生到文件的 hd3 = logging.StreamHandler() # 产生在终端的 # 4.formatter对象:负责日志的格式 fm1 = logging.Formatter( fmt='%(asctime)s - %(name)s - %(levelname)s -%(module)s: %(message)s', datefmt='%Y-%m-%d %H:%M:%S %p', ) fm2 = logging.Formatter( fmt='%(asctime)s - %(name)s %(message)s', datefmt='%Y-%m-%d', ) # 5.绑定handler对象 logger.addHandler(hd1) logger.addHandler(hd2) logger.addHandler(hd3) # 6.绑定formatter对象 hd1.setFormatter(fm1) hd2.setFormatter(fm2) hd3.setFormatter(fm1) # 7.设置日志等级 logger.setLevel(10) # 8.记录日志 logger.debug('加油加油')
4、配置字典(模板)
import logging import logging.config standard_format = '[%(asctime)s][%(threadName)s:%(thread)d][task_id:%(name)s][%(filename)s:%(lineno)d]' \ '[%(levelname)s][%(message)s]' #其中name为getlogger指定的名字 simple_format = '[%(levelname)s][%(asctime)s][%(filename)s:%(lineno)d]%(message)s' logfile_path = 'a3.log' # log配置字典 LOGGING_DIC = { 'version': 1, 'disable_existing_loggers': False, 'formatters': { 'standard': { 'format': standard_format }, 'simple': { 'format': simple_format }, }, 'filters': {}, # 过滤日志 'handlers': { #打印到终端的日志 'console': { 'level': 'DEBUG', 'class': 'logging.StreamHandler', # 打印到屏幕 'formatter': 'simple' }, #打印到文件的日志,收集info及以上的日志 'default': { 'level': 'DEBUG', 'class': 'logging.handlers.RotatingFileHandler', # 保存到文件 'formatter': 'standard', 'filename': logfile_path, # 日志文件 'maxBytes': 1024*1024*5, # 日志大小 5M 'backupCount': 5, 'encoding': 'utf-8', # 日志文件的编码,再也不用担心中文log乱码了 }, }, 'loggers': { #logging.getLogger(__name__)拿到的logger配置 空字符串作为键 能够兼容所有的日志 '': { 'handlers': ['default', 'console'], # 这里把上面定义的两个handler都加上,即log数据既写入文件又打印到屏幕 'level': 'DEBUG', 'propagate': True, # 向上(更高level的logger)传递 }, # 当键不存在的情况下 (key设为空字符串)默认都会使用该k:v配置 }, } # 使用配置字典 logging.config.dictConfig(LOGGING_DIC) # 自动加载字典中的配置 logger1 = logging.getLogger('xxx') logger1.debug('好好的 不要浮躁 努力就有收获')
5、配置参数
logging.basicConfig()函数中可通过具体参数来更改logging模块默认行为,可用参数有: filename:用指定的文件名创建FiledHandler,这样日志会被存储在指定的文件中。 filemode:文件打开方式,在指定了filename时使用这个参数,默认值为“a”还可指定为“w”。 format:指定handler使用的日志显示格式。 datefmt:指定日期时间格式。 level:设置rootlogger(后边会讲解具体概念)的日志级别 stream:用指定的stream创建StreamHandler。可以指定输出到sys.stderr,sys.stdout或者文件(f=open(‘test.log’,’w’)),默认为sys.stderr。若同时列出了filename和stream两个参数,则stream参数会被忽略。 format参数中可能用到的格式化串: %(name)s Logger的名字 %(levelno)s 数字形式的日志级别 %(levelname)s 文本形式的日志级别 %(pathname)s 调用日志输出函数的模块的完整路径名,可能没有 %(filename)s 调用日志输出函数的模块的文件名 %(module)s 调用日志输出函数的模块名 %(funcName)s 调用日志输出函数的函数名 %(lineno)d 调用日志输出函数的语句所在的代码行 %(created)f 当前时间,用UNIX标准的表示时间的浮 点数表示 %(relativeCreated)d 输出日志信息时的,自Logger创建以 来的毫秒数 %(asctime)s 字符串形式的当前时间。默认格式是 “2003-07-08 16:49:45,896”。逗号后面的是毫秒 %(thread)d 线程ID。可能没有 %(threadName)s 线程名。可能没有 %(process)d 进程ID。可能没有 %(message)s用户输出的消息