python 内置模块续(二)
python 内置模块补充
1、hashlib模块
hash模块的作用主要是对数据进行加密,我们在平时登录的时候,大部分后台一般会对我们的密码等私密信息进行加密
-
加密:将明文数据通过一系列的算法变成密文数据,这样做提升了数据的安全性
-
加密算法:md系列、sha系列、base系列、hamc系列
-
常用的算法类型及方法:
- hashlib.md5()
- md5.uppdate():uppdate只能接收bytes类型的数据,所以在传送数据的时候要编码(encode)
- hexdigest():生成一串没有规则的随机字符串
-
注意:加密之后的密文数据是无法解密成明文数据(除非你很牛逼),涉及到用户密码等隐私信息,其实都是密文,只有用户自己知道明文是什么,内部程序员无法得知明文数据,数据泄露也无法得知明文数据
简易使用:
import hashlib
# 先确定算法类型(md5普遍使用)
md5 = hashlib.md5()
# 加密的数据
data = '人生苦短我用python'
# 转化为bytes
data1 = data.encode('utf8')
# uppdate接收数据
md5.update(data1)
# 加密操作
res = md5.hexdigest()
print(res)
# result👇
# 007f910ee8215e9e229cc4fba38665da
'''如果明文数据相同,不管分几次传入,加密的结果肯定是一样的'''
# 将data拆分开传入
import hashlib
# 先确定算法类型(md5普遍使用)
md5 = hashlib.md5()
# 加密的数据
data = '人生苦短我用python'
# uppdate接收数据
md5.update('人生苦短'.encode('utf8'))
md5.update('我用python'.encode('utf8'))
# 加密操作
res = md5.hexdigest()
print(res)
# result👇
# 007f910ee8215e9e229cc4fba38665da
# 007f910ee8215e9e229cc4fba38665da
'''将data分成两部分传入,发现加密后的密文数据一样'''
高级使用:
生成复杂密文,密文越长,内部对应的算法越复杂,越难破解
import hashlib
# 使用sha256算法
sha256 = hashlib.sha256()
sha256.update('人生苦短我用python'.encode('utf8'))
res = sha256.hexdigest()
print(res)
# 使用md5加密后的结果
# 007f910ee8215e9e229cc4fba38665da
# 使用sha256加密的结果
# f1ae8a91ef9decce9715bd555111fc9e4b7c7e4f9dd962b32b3668a1ac2e4e6c
'''发现使用sha256加密,获取的密文更长
优点:密文更长,越复杂,越不容易被破解
缺点:消耗的资源会更多,密文越长基于网络发送需求占据的数据也越大'''
进阶使用:
加盐处理:
-
普通加盐
-
动态加盐
-
加盐处理:就是对明文数据处理做加密的过程前加一些干扰项,使得数据更加的安全,不容易被破解
示例如下:
import hashlib
md5 = hashlib.md5()
# 获取加密的数据
md5.update('python'.encode('utf8'))
# 加盐处理
md5.update('加点干扰才更加安全'.encode('utf8'))
# 加密处理
res = md5.hexdigest()
print(res)
# 为加盐的结果23eeeb4347bdd26bfc6b7ee9a3b755dd
# 加盐的结果c51a058dc11f6c52e3110a8cbf6b6c6e
'''不加盐python明文加密的结果和加盐的结果不一样,这样就算破解了也不是真实数据'''
-
动态加盐操作
上面的写法就写死了,只能固定加盐的内容,我们如果可以不断变换加盐的内容,这样是不是更加安全
通过获取动态的数据,来实现加盐内容的变换
import hashlib
import time
# 确定加密的算法
md5 = hashlib.md5()
# 获取加密的数据
data = 'python'.encode('utf8')
# 动态加盐
'''通过获取时间戳,来使得盐的内容都不一样'''
interference = str(time.time())
md5.update(data)
md5.update(interference.encode('utf8'))
res = md5.hexdigest()
print(res)
# 取三次结果
'''
edb6fbf75df039a7cc77a0b641591558
51ed4a4d4428308001a8ea993002a9cc
2e5d90eb45fd53228a7c501d6ecebb3f
'''
校验文件一致性
文件不是很大的时候,可以直接加密处理,如果文件很大的时候,想全部加密处理,可以通过切片读取的方式来加密
注意:文件要使用二进制的模式,因为加密操作是针对bytes类型!
小文件直接加密
# 校验文件的一致性
# 小文件直接加密
import hashlib
# 获取使用的算法
md5 = hashlib.md5()
with open(r'a.txt','rb') as f:
for oneline in f:
md5.update(oneline)
res = md5.hexdigest()
print(res)
# 结果
# 8d3eade70c8a8243554980488263fcc7
# cadd64f0bc5c34e40c151e7ed78a12a6
# d892ad2413f01d4ae0a18ce9b5367f29
'''
a.txt文件的内容
python123
python456
python789
'''
# 如果修改文件内容加密后的密文也会改变,修改最后一行发现前两行一样最后一行不一样
import hashlib
# 获取使用算法
md5 = hashlib.md5()
with open(r'a.txt','rb') as f:
for oneline in f:
md5.update(oneline)
res = md5.hexdigest()
print(res)
# 结果
'''
8d3eade70c8a8243554980488263fcc7
cadd64f0bc5c34e40c151e7ed78a12a6
8a149d9358818b4709f84ede3ed59f84
'''
大文件加密
# 大文件加密
import os
import hashlib
# 获取算法
md = hashlib.md5()
# 读取文件总大小
file_size= os.path.getsize(r'a.txt') # 33
# 指定分片的读取策略,每段读取几个字节
read_seg = [0,file_size//4,file_size//2,file_size-10]
with open(r'a.txt','rb')as f:
for oneline in read_seg:
f.seek(oneline)
md.update(f.read(5))
print(md.hexdigest())
# 结果
'''
d3b2be2dd2a6dfdc6a07f2c14cbfa763
762a12f9502b4f39d70456508f9a833a
b6f58f4ad6bb0d2539c715f5cd95c919
9b1ff33821e93423b997d9dbb0fa8091
'''
2、logging日志模块
👉[python官网版本](日志记录 — Python 的日志记录工具 — Python 3.10.0 文档)
这个模块定义了为应用程序和库实现灵活时间日志记录的函数和类!
日志等级
水平 | 数值 |
---|---|
CRITICAL |
50 |
ERROR |
40 |
WARNING |
30 |
INFO |
20 |
DEBUG |
10 |
NOTSET |
0 |
注意:默认记录的级别在30以上
常用处理
- logging.debug(‘debug级别’)
- logging.info(‘info级别’)
- logging.warning(‘warning级别’)
- logging.error(‘error级别’)
- logging.critical(‘critical级别’)
“四大天王”
logger对象、filter对象、handler对象、formatter对象
简单使用
import logging
# 写入文件
# file_handler = logging.FileHandler(filename='log1.log',mode='a',encoding='utf8')
# 当前输出
file_now = logging.StreamHandler()
logging.basicConfig(
format='%(asctime)s - %(name)s - %(levelname)s -%(module)s: %(message)s',
datefmt='%Y-%m-%d %H:%M:%S %p',
handlers=[file_now,],
level=logging.ERROR
)
logging.error('日志模块')
# 结果
# 2021-11-29 16:49:58 PM - root - ERROR -3logging模块: 日志模块
# 在文件和终端同时显示
import logging
# 写入文件
file_handler = logging.FileHandler(filename='log1.log',mode='a',encoding='utf8')
# 当前输出
file_now = logging.StreamHandler()
logging.basicConfig(
format='%(asctime)s - %(name)s - %(levelname)s -%(module)s: %(message)s',
datefmt='%Y-%m-%d %H:%M:%S %p',
handlers=[file_now,file_handler],
level=logging.ERROR
)
logging.error('日志模块')
日志模块详细介绍
'''要求:
1、想在文件和终端中同时打印
2、不同位置如何做到不同的日志格式,文件详细一些 终端简单一些
'''
import logging
# 1.logger对象:负责产生日志
logger = logging.getLogger('转账记录')
# 2.filter对象:负责过滤日志(直接忽略)
# 3.handler对象:负责日志产生的位置
hd1 = logging.FileHandler('a1.log',encoding='utf8') # 产生到文件的
hd2 = logging.StreamHandler() # 产生在终端的
# 4.formatter对象:负责日志的格式
fm1 = logging.Formatter(
fmt='%(asctime)s - %(name)s - %(levelname)s -%(module)s: %(message)s',
datefmt='%Y-%m-%d %H:%M:%S %p',
)
fm2 = logging.Formatter(
fmt='%(asctime)s - %(name)s %(message)s',
datefmt='%Y-%m-%d',
)
# 5.绑定handler对象
logger.addHandler(hd1)
logger.addHandler(hd2)
# 6.绑定formatter对象
hd1.setFormatter(fm1)
hd2.setFormatter(fm2)
# 7.设置日志等级
logger.setLevel(10)
# 8.记录日志
logger.debug('终端显示')
# 结果
# 2021-11-29 - 转账记录 终端显示
配置字典
import logging
import logging.config
standard_format = '[%(asctime)s][%(threadName)s:%(thread)d][task_id:%(name)s][%(filename)s:%(lineno)d]' \
'[%(levelname)s][%(message)s]' #其中name为getlogger指定的名字
simple_format = '[%(levelname)s][%(asctime)s][%(filename)s:%(lineno)d]%(message)s'
logfile_path = 'log_dic.log'
# log配置字典
LOGGING_DIC = {
'version': 1,
'disable_existing_loggers': False,
'formatters': {
'standard': {
'format': standard_format
},
'simple': {
'format': simple_format
},
},
'filters': {}, # 过滤日志
'handlers': {
#打印到终端的日志
'console': {
'level': 'DEBUG',
'class': 'logging.StreamHandler', # 打印到屏幕
'formatter': 'simple'
},
#打印到文件的日志,收集info及以上的日志
'default': {
'level': 'DEBUG',
'class': 'logging.handlers.RotatingFileHandler', # 保存到文件
'formatter': 'standard',
'filename': logfile_path, # 日志文件,(可以修改)
'maxBytes': 1024*1024*5, # 日志大小 5M
'backupCount': 5,
'encoding': 'utf-8', # 日志文件的编码,再也不用担心中文log乱码了
},
},
'loggers': {
#logging.getLogger(__name__)拿到的logger配置 空字符串作为键 能够兼容所有的日志
'': {
'handlers': ['default', 'console'], # 这里把上面定义的两个handler都加上,即log数据既写入文件又打印到屏幕
'level': 'DEBUG',
'propagate': True, # 向上(更高level的logger)传递
}, # 当键不存在的情况下 (key设为空字符串)默认都会使用该k:v配置
},
}
# 使用配置字典
logging.config.dictConfig(LOGGING_DIC) # 自动加载字典中的配置
logger1 = logging.getLogger('日志类型')
logger1.debug('显示内容')
# 结果
#[DEBUG][2021-11-29 17:05:34,754][匹配字典.py:56]显示内容
配置参数
logging.basicConfig()函数中可通过具体参数来更改logging模块默认行为,可用参数有:
- filename:用指定的文件名创建FiledHandler,这样日志会被存储在指定的文件中。
- filemode:文件打开方式,在指定了filename时使用这个参数,默认值为“a”还可指定为“w”。
- format:指定handler使用的日志显示格式。
- datefmt:指定日期时间格式。
- level:设置rootlogger(后边会讲解具体概念)的日志级别
- stream:用指定的stream创建StreamHandler。可以指定输出到sys.stderr,sys.stdout或者文件(f=open(‘test.log’,’w’)),默认为sys.stderr。若同时列出了filename和stream两个参数,则stream参数会被忽略。
format参数中可能用到的格式化串:
- %(name)s Logger的名字
- %(levelno)s 数字形式的日志级别
- %(levelname)s 文本形式的日志级别
- %(pathname)s 调用日志输出函数的模块的完整路径名,可能没有
- %(filename)s 调用日志输出函数的模块的文件名
- %(module)s 调用日志输出函数的模块名
- %(funcName)s 调用日志输出函数的函数名
- %(lineno)d 调用日志输出函数的语句所在的代码行
- %(created)f 当前时间,用UNIX标准的表示时间的浮 点数表示
- %(relativeCreated)d 输出日志信息时的,自Logger创建以 来的毫秒数
- %(asctime)s 字符串形式的当前时间。默认格式是 “2003-07-08 16:49:45,896”。逗号后面的是毫秒
- %(thread)d 线程ID。可能没有
- %(threadName)s 线程名。可能没有
- %(process)d 进程ID。可能没有
- %(message)s用户输出的消息
第三方模块
第三方模块需要下载
下载方式:
-
方式1:命令行借助于pip工具
pip3 install 模块名 # 不知道版本默认是最新版
pip3 install 模块名==版本号 # 指定版本下载
pip3 install 模块名 -i 仓库地址 # 临时切换 -
方式2:pycharm快捷下载
settings >> project >> project interprter
- 添加源地址:点击manage管理添加地址
-
常用源
-
(1)阿里云 http://mirrors.aliyun.com/pypi/simple/
(2)豆瓣 http://pypi.douban.com/simple/
(3)清华大学 https://pypi.tuna.tsinghua.edu.cn/simple/
(4)中国科学技术大学 http://pypi.mirrors.ustc.edu.cn/simple/
(5)华中科技大学:http://pypi.hustunique.com/
如果遇到下载报错,报错的原因有以下几点:
- 错误信息有timeout关键字,网络不稳定
- 找不到pip命令,添加到环境变量或者切换路径下载
- pip下载某个模块报错,没有任何关键字的提示,那就百度吧,哈哈哈~