python:常用模块 知识整理

 

time模块

time.time()     # 时间戳:1487130156.419527
time.strftime("%Y-%m-%d %X")     #格式化的时间字符串:'2017-02-15 11:40:53'
time.localtime()    #本地时区的struct_time
time.gmtime()     #UTC时区的struct_time

 

 

时间戳 与 struct_time对象的相互转换

time.localtime(1473525444.037215) #时间戳到struct_time对象
time.mktime(time.localtime())    #struct_time对象到时间戳

时间字符串 与 struct_time对象的相互转换

time.strptime('2007-12-1 2-3-4','%Y-%m-%d %H-%M-%S')   #字符串到struct_time对象 
time.strftime("%Y-%m-%d %X", time.localtime())    #struct_time 到字符串

datetime模块
这个应该更强大的time模块

datetime与字符串的互相转化

datetime.date 代表年月日,datetime.time代表时分秒,datetime.datetime代表年月日时分秒
时间加减
a = datetime.datetime.now()
datetime.datetime.now()-a > datetime.timedelta(days=30)


三者都具有差不多的函数。主要功能

datetime.datetime.fromtimestamp(time.time()) #1)时间戳到datetime.datetime对象
datetime.timedelta:datetime.datetime.now() + datetime.timedelta(hours=3) #2)时间加减对象,当前时间+3小时
datetime.datetime.now().replace(minute=3,hour=2). #3)时间替换

sys模块

sys.path.append 
sys.stdout sys.stderr sys.stdin 三流
sys.modules[__name__] 获得本模块

random模块

random.random() #(0,1)----float 大于0且小于1之间的小数
random.randint(1,3) #[1,3] 大于等于1且小于等于3之间的整数
random.randrange(1,3) #[1,3) 大于等于1且小于3之间的整数
random.choice([1,'23',[4,5]])#1或者23或者[4,5]
random.sample([1,'23',[4,5]],2)#列表元素任意2个组合
random.uniform(1,3) #大于1小于3的小数,如1.927109612082716 
item=[1,3,5,7,9]
random.shuffle(item) #打乱item的顺序,相当于"洗牌"

 

os模块

os模块是与操作系统交互的一个接口
os.urandom(32)   #获得32字节的随机数,字节类型
os.getcwd()    #获取当前工作目录,即当前python脚本工作的目录路径
os.chdir("dirname")   # 改变当前脚本工作目录;相当于shell下cd
os.makedirs('dirname1/dirname2')    #可生成多层递归目录
os.removedirs('dirname1')   # 若目录为空,则删除,并递归到下一级目录,如若也为空,则删除,依此类推
os.mkdir('dirname')   # 生成单级目录;相当于shell中mkdir dirname
os.rmdir('dirname')   # 删除单级空目录,若目录不为空则无法删除,报错;相当于shell中rmdir dirname
os.listdir('dirname')   # 列出指定目录下的所有文件和子目录,包括隐藏文件,并以列表方式打印
os.remove(‘filepath’)     # 删除一个文件
os.rename("oldname","newname")   # 重命名文件/目录
os.stat('path/filename')  # 获取文件/目录信息
os.name     #输出字符串指示当前使用平台。win->'nt'; Linux->'posix'
os.system("bash command")   # 运行shell命令,直接显示
os.path.abspath(path)   # 返回path规范化的绝对路径
os.path.split(path)   # 将path分割成目录和文件名二元组返回
os.path.dirname(path)   # 返回path的目录。其实就是os.path.split(path)的第一个元素
os.path.basename(path)   # 返回path最后的文件名。若path以/或\结尾,那么就会返回空值。即os.path.split(path)的第二个元素
os.path.exists(path)   # 如果path存在,返回True;如果path不存在,返回False
os.path.isabs(path)   # 如果path是绝对路径,返回True
os.path.isfile(path)   # 如果path是一个存在的文件,返回True。否则返回False
os.path.isdir(path)   # 如果path是一个存在的目录,则返回True。否则返回False
os.path.join(path1[, path2[, ...]])   # 将多个路径组合后返回,第一个绝对路径之前的参数将被忽略
os.path.getatime(path)   # 返回path所指向的文件或者目录的最后存取时间
os.path.getmtime(path)  # 返回path所指向的文件或者目录的最后修改时间
os.path.getsize(path)   #返回path的大小
注意:os.path.getsize() 和 f.seek(0,2) f.tell() 和os.stat(path).st_size 的结果相同

os.walk('dir_path')    # 详细用法。os.walk()常用于获取非执行目录的绝对路径,os.path.abspath(),只是将文件名加上当前目录路径
如何获得一个路径下面所有的文件路径:

import os
path = r'C:\Users\Administrator\Desktop\file'
for dirpath,dirnames,filenames in os.walk(path):
    for filename in filenames:
    print(os.path.join(dirpath,filename))

optparse模块
比sys.argv更好的参数处理

op = optparse.OptionParser()
op.add_option('-s','--server',dest='server')
op.add_option('-p','--port',dest='port')
options, args = op.parse_args() #传入完成,做解析

注意:options不是字典 option['server']会报错,取值应该是options.server
外部传参例子:
python ftpserver.py -s 127.0.0.1 -p 8080
输出:
options: {'server':'127.0.0.1','port':'8080'}
args :[] #没有定义绑定的信息。

shutil模块
高级的 文件、文件夹、压缩包 处理模块

shutil.copyfileobj(open('old.xml','r'), open('new.xml', 'w')) #将文件内容拷贝到另一个文件中:
shutil.copyfile('f1.log', 'f2.log') #拷贝文件,目标文件无需存在
shutil.copymode('f1.log', 'f2.log') #拷贝权限。内容、组、用户均,不变目标文件必须存在
shutil.copystat('f1.log', 'f2.log') #拷贝状态的信息,包括:mode bits, atime, mtime, flag,s目标文件必须存在
shutil.copy('f1.log', 'f2.log')    #拷贝文件和权限
shutil.copy2('f1.log', 'f2.log')    #拷贝文件和状态信息
shutil.copytree('folder1', 'folder2', ignore=shutil.ignore_patterns('*.pyc', 'tmp*')) #递归的去拷贝文件夹:目标目录不能存在,注意对folder2目录父级目录要有可写权限,ignore的意思是排除
shutil.rmtree('folder1'),#删除非空文件夹 
shutil.move('folder1', 'folder3')   # 递归的去移动文件,它类似mv命令,其实就是重命名
ret = shutil.make_archive("/tmp/data_bak", 'gztar', root_dir='/data')     #创建压缩包并返回文件路径,例如:zip、tar:
    #将 /data下的文件打包放置 /tmp/目录
#pyhton中含有对解压操作的两个模块:zipfile,tarfile#

json模块、pickle模块
这两个类都序列化用 
json强大在可以在任何语言的数据交换。不能传输类,只能传输基本类型

json.dumps(xx) #转化为json字符串、参数可以是字典、列表、元组、基本数据类型
json.loads(xx) #传入json字符串,还原为原来的数据,和eval不同的是,eval侧重于语句,eval('1+1')可以执行,json则可以跨语言,

-----------------------------------------------------------------------------------------
json.dumps(books, default=lambda o: o.__dict__) . # 将对象转化为对象内部的字典,有递归效果

--------------------------------------------------------------------------------------------
#扩展json序列化引擎类,序列化datetime对象
class
CJsonEncoder(json.JSONEncoder): def default(self, obj): #if isinstance(obj, datetime): #return obj.strftime('%Y-%m-%d %H:%M:%S') if isinstance(obj, datetime.date): return obj.strftime('%Y-%m-%d %H:%M:%S') else: return json.JSONEncoder.default(self, obj) import json import datetime a = datetime.datetime.now() print(a) b = json.dumps(a,cls=CJsonEncoder) print(b)

 

附:django序列化(专门用于序列化django的models对象)

from django.core import serializers
ret = models.BookType.objects.all()
data = serializers.serialize("json", ret)    

pickle只能在python与python之间的交换,但什么都可以支持,类,函数啊,函数只传递地址,不传递函数体,没多大意义
注意: 使用pickle模块,打开文件时需要'wb')模式,因为pickle.dumps(xx)#转化为字节 

shelve模块
也是序列化模块,操作为{key:{}}形式

import shelve
f=shelve.open(r'sheve.txt')
f['stu1_info']={'name':'egon','age':18,'hobby':['piao','smoking','drinking']}
f['stu2_info']={'name':'gangdan','age':53}
f['school_info']={'website':'http://www.pypy.org','city':'beijing'}
print(f['stu1_info']['hobby'])
f.close()

 

hashlib模块
hashlib在3.x里代替了md5模块和sha模块,主要提供 SHA1, SHA224, SHA256, SHA384, SHA512 ,MD5 算法),该算法接受传入的内容,经过运算得到一串hash值
扩展:hash算法特点
  1.加密不可逆
  2.只要传入的内容一样,得到的hash值必然一样
  3,只要使用的hash算法不变,无论校验的内容有多大,得到的hash值长度是固定的

普通用法:

m=hashlib.md5()
m.update('helloalvin'.encode('utf8')) #只能传入字节
m.hexdigest() #92a7e713c30abbb0319fa07da2a5c4af

注意:update内部有一个排他集合,会将所有分批传入的数据一起计算。所以如果要分开一个数据一个数据地加密,一定要重新初始化加密算法对象。

防止撞库,对加密算法中添加自定义key再来做加密:

hash = hashlib.sha256('898oaFs09f'.encode('utf8')) #添加自己的key,然后初始化
hash.update('alvin'.encode('utf8'))
hash.hexdigest()#e79e68f070cdedcfe63eaf1a2e92c83b4cfb1b5c6bc452d214c1b7e77cdfd1c7

 

base64模块
双向可解的加密

base64.b64encode('123456'.encode('utf8'))
#'MTIzNDU2'
 base64.b64decode('MTIzNDU2'.encode('utf8'))
#'123456'

hmac
加入自定义秘钥生成唯一字节流

secret_key = b'qazwsx123'
msg = os.urandom(32)
h=hmac.new(secret_key,msg) #使用随机生成的msg对secret_key加密
digest=h.digest() #产生加密结果
hmac.compare_digest(digest,respone) #比较字节是否相等

 

configparser模块
操作配置文件。
配置文件的格式
[section1]
k1 = v1
k2:v2
user=egon
age=18
is_admin=true
salary=31

[section2]
k1 = v1

config = configparser.ConfigParser()  #1.必须操作,创建对象

取值:

config.read('a.cfg')    #像文件一样首先打开
res=config.sections() #查看所有的标题:['section1', 'section2']
options=config.options('section1')    #查看标题section1下所key=value的key组成的列表:
val=config.get('section1','user')     #取出指定section的指定键的值
#注意,get还有其他‘子类’函数,适用于取出特定类型,就是简化取出之后的类型转换步骤

写(改):

config.remove_section('section2')     #删除整个节section2
config.remove_option('section1','k1')    #删除节下面的指定键值对
config.add_section('egon')    #添加一个标题:
config.set('egon','name','egon')   #在标题egon下添加name=egon,age=18
config.write(open('a.cfg','a+'))   #写入文件

判断

 config.has_section('section1')   #判断有指定节 
config.has_option('section1','')    #判断节下面是否有


logging模块
详细解析伯乐问答详细解析三

用处:
1)程序调试
2)了解软件程序运行情况,是否正常
3)软件程序运行故障分析与问题定位
4)还可以用来做用户行为分析,如:分析用户的操作行为、类型洗好、地域分布以及其它更多的信息,由此可以实现改进业务、提高商业利益。

功能有设置输出日志的等级、日志保存路径、日志文件回滚等;
相比print,其可以通过设置不同的日志等级,在release版本中只输出重要信息,而不必显示大量的调试信息;

日志级别

默认级别为warning,默认打印到终端,低于级别的日志不输出
CRITICAL = 50 #FATAL = CRITICAL
ERROR = 40
WARNING = 30 #WARN = WARNING
INFO = 20
DEBUG = 10
NOTSET = 0 #不设置

配置

logging.basicConfig()函数中通过具体参数来更改logging模块默认行为。
#这是全局配置,针对所有logger有效
#并且这个配置比较低级,

#常用两者之一,有stream参数就不能设置filename,反过来也是
logging.basicConfig(level=logging.DEBUG,stream=std.__stdout__)
logging.basicConfig(level=10,filename='log.log')

Formatter,Handler,Logger,Filter对象

 

logger:产生日志的对象
Filter:过滤日志的对象,一般不用
Handler:接收日志然后控制打印到不同的地方,FileHandler用来打印到文件中,StreamHandler用来打印到终端
Formatter对象:可以定制不同的日志格式对象,然后绑定给不同的Handler对象使用,以此来控制不同的Handler的日志格式

#1.logger对象:负责产生日志,然后交给Filter过滤,然后交给不同的Handler输出
logger=logging.getLogger(__file__)

#2、Filter对象:不常用,略

#3、Handler对象:接收logger传来的日志,然后控制输出
h1=logging.FileHandler('t1.log') #打印到文件
h3=logging.StreamHandler() #打印到终端

#4、Formatter对象:日志格式
formmater1=logging.Formatter('%(asctime)s - %(name)s - %(levelname)s -%(module)s: %(message)s',datefmt='%Y-%m-%d %H:%M:%S %p',)
formmater3=logging.Formatter('%(name)s %(message)s',)

为Handler对象绑定格式

h1.setFormatter(formmater1)
h3.setFormatter(formmater3)

将Handler关联logger

logger.addHandler(h1)
logger.addHandler(h3)

设置等级

logger.setLevel(10)

logger.debug('debug')
logger.info('info')
logger.warning('warning')
logger.error('error')
logger.critical('critical')

 

自定义的logger类,用于辅助其他类(self.logger=PluginLogger())


import logging
import os
from conf import setting


class Log(object):
__instance = None

def __init__(self):
self.error_log_path = setting.ERROR_LOG_PATH
self.run_log_path = setting.RUN_LOG_PATH
self.error_log = None
self.run_log = None
self.__init_error_log()
self.__init_error_log()

def __new__(cls, *args, **kwargs):
if not cls.__instance:
cls.__instance = object.__new__(cls, *args, **kwargs)
return cls.__instance

def __check_path_exists(self, file_path):
if not os.path.exists(file_path):
raise Exception('%s not exists' % file_path)

def __init_error_log(self):
self.__check_path_exists(self.error_log_path)
logger = logging.Logger('error_log', logging.ERROR)
h = logging.FileHandler(self.error_log_path, 'a', encoding='utf8')
fmt = logging.Formatter(fmt="%(asctime)s - %(levelname)s : %(message)s")
h.setFormatter(fmt)
logger.addHandler(h)
self.error_log = logger

def __init_run_log(self):
self.__check_path_exists(self.run_log_path)
logger = logging.Logger('run_log', logging.INFO)
h = logging.FileHandler(self.run_log_path, 'a', encoding='utf8')
fmt = logging.Formatter(fmt="%(asctime)s - %(levelname)s : %(message)s")
h.setFormatter(fmt)
logger.addHandler(h)
self.run_log = logger

def log(self, msg, status=True):
if status:
self.run_log.info(msg)
else:
self.error_log.error(msg)


logger = Log()
 

 

 

自定义配置
一般正规的开发,不会使用以上的对象进行配置。
logging标准模块支持三种配置方式: dictConfig,fileConfig,listen。其中,dictConfig是通过一个字典进行配置Logger,Handler,Filter,Formatter;fileConfig则是通过一个文件进行配置;而listen则监听一个网络端口,通过接收网络数据来进行配置。

了解logger的继承,用于filter对象

logger1=logging.getLogger('abc') 
logger2=logging.getLogger('abc.freedom')
logger3=logging.getLogger('abc.freedom.child2')

通过父名.子名继承,名字自定义,继承后,父logger输出时,子对象也会输出一份相同的,但子对象也可以自己另外输出。

 

django的配置说明

'file': {
'level': 'INFO',
'class': 'logging.handlers.TimedRotatingFileHandler', # 用时间切割
'when': "D", #D 表示天
'interval': 1, #1 表示每1天,每天切割一次日志文件
"backupCount": 3,
'formatter': 'default',
'filename': os.path.join(BASE_DIR, 'logs', 'dbops.log')
},

 


re模块

正则表达式深入用法
1.sub将指定字母替换为大写,若使用lambda函数形式,记得传入的是匹配到的正则结构,要使用group提出

re.sub(r'(a)',lambda x:x.group(0).upper(),'caca')

2.使用|方式,要在()阔住,并且在阔号最前面加入?:

re.findall('compan(?:y|ies)','Too many companies have gone bankrupt, and the next one is my company')

3.正则函数一般有一个参数flags可以传入正则标志,例如忽略大小写,还有正则默认不匹配换行符,标志设置为re.S就适用于有换行的字 符串,注意的是换行符无需在正则里写出来

4.re.split,普通的字符串split只能按照一个传入的字符串匹配,但这个可按照多个

re.split('[ab]','abcd') #['', '', 'cd'],先按'a'分割得到''和'bcd',再对''和'bcd'分别按'b'分割
re.split('[ab]','acaccccbzzzafreedom')
['', 'c', 'cccc', 'zzz', 'freedom']

5.sub函数还有个count参数,指定替换多少次

re.sub('a','A','alex make love',1) Alex make love

6.re.compile可以实现正则的重用,并且速度快于用字符串保存的正则

obj=re.compile('\d{2}')
obj.search('abc123eeee').group()) #12
obj.findall('abc123eeee')) #['12'],重用了obj

7.阔号后面配频率符,少用。因为各种re的函数的处理都不同
看这个例子:(\d)+相当于(\d)(\d)(\d)(\d)...,是一系列分组

print(re.search('(\d)+','123').group()) #group的作用是将所有组拼接到一起显示出来
print(re.findall('(\d)+','123')) #findall结果是组内的结果,且是最后一个组的结果

8.group(0)是返回匹配到的全部,group(1)开始就是返回正则表达式阔号的值。默认group()便是group(0)

9.注意,match,从第一个字母查找,满足所编写的正则后便返回。

re.match(r'ddd','ddd32')
 <_sre.SRE_Match object; span=(0, 3), match='ddd'>

10.?:这个代表不捕获分组
比较(X)和(?:X),前者是捕获分组,后者不捕获,区别在于正则表达式匹配输入字符串之后所获得的匹配的(数)组当中没有(?:X)匹配的部分;
比如

注意:这个是javascript
var m = "abcabc".match(/(?:a)(b)(c)/)
结果 ["abc", "b", "c"]

var m = "abcabc".match(/(a)(b)(c)/)
结果 ["abc", "a", "b", "c"]

11.正则如果有冲突的话,前面加上'\',而r前缀的作用是拟制\n \t之类的转义字符,与冲突字符无关

In [30]: re.match(r'www\.','www.')
Out[30]: <_sre.SRE_Match object; span=(0, 4), match='www.'>

12.正则的(?=rex),匹配指定正则的‘前面部分’的‘预扫描’

 

#预扫描就是先走一遍,找到?=中的正则,然后返回匹配的结果。剩下的正则,还是从‘预扫描’正则的前一个正则处理完的位置开始。
re.match(r'(?=123|456)(?=123abc)(?=123abcfree)123abcfree','123abcfree')  
Out[98]: <_sre.SRE_Match object; span=(0, 10), match='123abcfree'>  

#预匹配经常用于这样的场景,例如:密码需要包含大小写字母,数字和下划线

re.match(r'(?=.*[a-z])(?=.*[A-Z])(?=.*[0-9])(?=.*_).*','fdfds2121_FSD')
Out[111]: <_sre.SRE_Match object; span=(0, 13), match='fdfds2121_FSD'>

 


uuid模块

用于生成唯一标志符
uuid1()——基于时间,由MAC地址、当前时间戳、随机数生成。可以保证全球范围内的唯一性

 
functools模块

Python装饰器(decorator)在实现的时候,被装饰后的函数其实已经是另外一个函数了(函数名等函数属性会发生改变),为了不影响,Python的functools包中提供了一个叫wraps的decorator来消除这样的副作用。写一个decorator的时候,最好在实现之前加上functools的wrap,它能保留原有函数的名称和docstring。

from functools import wraps
def hello(fn):
    @wraps(fn)
    def wrapper():
        print "hello, %s" % fn.__name__
        fn()
        print "goodby, %s" % fn.__name__
    return wrapper

 


subprocess模块

打开一个子进程执行shell

res=subprocess.Popen('dir',shell=True,stdout=subprocess.PIPE)  #shell=True意味着用shell命令形式执行第一参数'dir',stdout参数指定将结果放到管道里面。
res.stdout.read() #从管道中读出数据,数据为二进制


res=subprocess.getoutput('ver') #直接获取cmd命令的返回值

常用做法:将输入流,输出流,错误流都定义到管道

res=subprocess.Popen('ls',shell=True,stdout=subprocess.PIPE,stdin=subprocess.PIPE,stderr=subprocess.PIPE) # 注意,虽说是这么写,但是其实是不同的管道。

 

struct模块
数据打包为二进制bytes的模块
例如,用使用四个字节表示2007这个数字。常用于拼接网络传输的应用层协议头
注意的是,因为常用于网路传输,网络传输后不是解码,还是调用unpack取出

a=struct.pack('b',-1)
struct.unpack('b',a) #返回的是元祖

 


xlrd模块
不是内置模块,请pip install xlrd
操作excel文件,xlsx等

data = xlrd.open_workbook('demo.xls') #打开excel
data.sheet_names() #查看文件中包含sheet的名称
#得到第一个工作表,或者通过索引顺序 或 工作表名称
table = data.sheets()[0]
table = data.sheet_by_index(0)
table = data.sheet_by_name(u'Sheet1')
#获取行数和列数
nrows = table.nrows
ncols = table.ncols
#获取整行和整列的值(数组)
table.row_values(i)
table.col_values(i)
#循环行,得到索引的列表
for rownum in range(table.nrows):
print table.row_values(rownum)
#单元格
cell_A1 = table.cell(0,0).value
cell_C4 = table.cell(2,3).value
#分别使用行列索引
cell_A1 = table.row(0)[0].value
cell_A2 = table.col(1)[0].value

 socket模块

服务端套接字函数
s.bind()    绑定(主机,端口号)到套接字
s.listen()  开始TCP监听
s.accept()  被动接受TCP客户的连接,(阻塞式)等待连接的到来

客户端套接字函数
s.connect()     主动初始化TCP服务器连接
s.connect_ex()  connect()函数的扩展版本,出错时返回出错码,而不是抛出异常

公共用途的套接字函数
s.recv()            接收TCP数据
s.send()            发送TCP数据(send在待发送数据量大于己端缓存区剩余空间时,数据丢失,不会发完)
s.sendall()         发送完整的TCP数据(本质就是循环调用send,sendall在待发送数据量大于己端缓存区剩余空间时,数据不丢失,循环调用send直到发完)
s.recvfrom()        接收UDP数据
s.sendto()          发送UDP数据
s.getpeername()     连接到当前套接字的远端的地址
s.getsockname()     当前套接字的地址
s.getsockopt()      返回指定套接字的参数
s.setsockopt()      设置指定套接字的参数
s.close()           关闭套接字

面向锁的套接字方法
s.setblocking()     设置套接字的阻塞与非阻塞模式
s.settimeout()      设置阻塞套接字操作的超时时间
s.gettimeout()      得到阻塞套接字操作的超时时间


socketserver模块

详细解析 
socket实现并发的模块
基于tcp的套接字,关键就是两个循环,一个链接循环,一个通信循环
socketserver模块中分两大类:server类(解决链接问题)和request类(解决通信问题)
借由继承socketserver.BaseRequestHandler,并覆写其handle方法实现并发服务器。即,每过来一个客户端,就会实例化一个自己继承的子类的对象与其通信

class Myserver(socketserver.BaseRequestHandler):
    def handle(self):
        print(self.request) #conn
        print(self.client_address)#addr

while True:
    data = self.request.recv(1024)
    self.request.sendall(data.upper())

s = socketserver.ThreadingTCPServer(('127.0.0.1',8080),MyServer) #注意这里第二参数为自定义子类
s.serve_forever() #链接循环    

 urllib模块
可以通过url返回下载页面的结果的函数

from urllib.request import urlopen 
    return urlopen(url).readlines() 

 
functools模块

functools.partial(iter,li)  #偏函数,即绑定参数,第一个参数为要操作的函数,第二参数为操作函数的第一个参数。

 

select模块

# select 模拟一个socket server,注意socket必须在非阻塞情况下才能实现IO多路复用。
# 接下来通过例子了解select 是如何通过单进程实现同时处理多个非阻塞的socket连接的。
#server端


import select
import socket
import queue

server = socket.socket()
server.bind(('localhost',9000))
server.listen(1000)

server.setblocking(False)  # 设置成非阻塞模式,accept和recv都非阻塞
# 这里如果直接 server.accept() ,如果没有连接会报错,所以有数据才调他们
# BlockIOError:[WinError 10035] 无法立即完成一个非阻塞性套接字操作。
msg_dic = {}
inputs = [server,]  # 交给内核、select检测的列表。
# 必须有一个值,让select检测,否则报错提供无效参数。
# 没有其他连接之前,自己就是个socket,自己就是个连接,检测自己。活动了说明有链接
outputs = []  # 你往里面放什么,下一次就出来了

while True:
    readable, writeable, exceptional = select.select(inputs, outputs, inputs)  # 定义检测
    #新来连接                                        检测列表         异常(断开)
    # 异常的也是inputs是: 检测那些连接的存在异常
    print(readable,writeable,exceptional)
    for r in readable:
        if r is server:  # 有数据,代表来了一个新连接
            conn, addr = server.accept()
            print("来了个新连接",addr)
            inputs.append(conn)  # 把连接加到检测列表里,如果这个连接活动了,就说明数据来了
            # inputs = [server.conn] # 【conn】只返回活动的连接,但怎么确定是谁活动了
            # 如果server活动,则来了新连接,conn活动则来数据
            msg_dic[conn] = queue.Queue()  # 初始化一个队列,后面存要返回给这个客户端的数据
        else:
            try :
                data = r.recv(1024)  # 注意这里是r,而不是conn,多个连接的情况
                print("收到数据",data)
                # r.send(data) # 不能直接发,如果客户端不收,数据就没了
                msg_dic[r].put(data)  # 往里面放数据
                outputs.append(r)  # 放入返回的连接队列里
            except ConnectionResetError as e:
                print("客户端断开了",r)
                if r in outputs:
                    outputs.remove(r) #清理已断开的连接
                inputs.remove(r) #清理已断开的连接
                del msg_dic[r] ##清理已断开的连接

    for w in writeable:  # 要返回给客户端的连接列表
        data_to_client = msg_dic[w].get()  # 在字典里取数据
        w.send(data_to_client)  # 返回给客户端
        outputs.remove(w)  # 删除这个数据,确保下次循环的时候不返回这个已经处理完的连接了。

    for e in exceptional:  # 如果连接断开,删除连接相关数据
        if e in outputs:
            outputs.remove(e)
        inputs.remove(e)
        del msg_dic[e]


#*************************client
import socket
client = socket.socket()

client.connect(('localhost', 9000))

while True:
    cmd = input('>>> ').strip()
    if len(cmd) == 0 : continue
    client.send(cmd.encode('utf-8'))
    data = client.recv(1024)
    print(data.decode())

client.close()

 

 

 

selectors模块
封装好的IO复用模块(select,poll,epoll)

sel = selectors.DefaultSeletors() # 首先创建根据操作系统取一个最好的IO复用方式(前提是存在)
sel.reister(sock,selectors.EVENT_READ,myaccept) #也就要对sock和myaccept函数做一个绑定,只要sock有活动,直接调用myaccpet方法
sel.unregister(conn)解除conn绑定的函数
events = sel.select() # 获得激活状态的事件
from socket import *
import selectors

sel=selectors.DefaultSelector()
def accept(server_fileobj,mask):
    conn,addr=server_fileobj.accept()
    sel.register(conn,selectors.EVENT_READ,read)

def read(conn,mask):
    try:
        data=conn.recv(1024)
        if not data:
            print('closing',conn)
            sel.unregister(conn)
            conn.close()
            return
        conn.send(data.upper()+b'_SB')
    except Exception:
        print('closing', conn)
        sel.unregister(conn)
        conn.close()



server_fileobj=socket(AF_INET,SOCK_STREAM)
server_fileobj.setsockopt(SOL_SOCKET,SO_REUSEADDR,1)
server_fileobj.bind(('127.0.0.1',8088))
server_fileobj.listen(5)
server_fileobj.setblocking(False) #设置socket的接口为非阻塞
sel.register(server_fileobj,selectors.EVENT_READ,accept) #相当于网select的读列表里append了一个文件句柄server_fileobj,并且绑定了一个回调函数accept

while True:
    events = sel.select() # 获得激活状态的事件
for key, mask in events:
    callback = key.data # 传入函数
    callback(key.fileobj, mask) #mask暂时没有意义

 

 

platform模块

>>> platform.system() #返回系统名称
'Windows'
 
#linux
>>> platform.system()
'Linux'

 

paramiko模块
SSH远程连接有两种方式,一种是通过用户名和密码直接登录,另一种则是用过密钥登录

创建公钥密钥的方法

 

requests模块

详细

# 第三方模块,pip install requests
# 可以模仿浏览器请求web服务器

# get方式请求
requests.get(url='https://www.bilibili.com/video/av21534444/')
# 1.1 get方式带参数
requset.get(url='https://www.bilibili.com/video/av21534444/?p=4&a=1')
# 1.2 get方式带参数(借由params参数,)
#注意的是params参数无论是get请求,还是post请求,都是放在url的‘?’后面
requset.get(url='https://www.bilibili.com/video/av21534444/',params={'p':4,'a':1})

#获得数据
data =
requset.get(url='https://www.bilibili.com/video/av21534444/',params={'p':4,'a':1})
data.text # 整个html文本
data.json() # 将获得的数据进行json.load()后返回

# post方式 # 注意的是,会有csrf验证阻止,需要使用以下装饰器装饰指定视图 from django.views.decorators.csrf import csrf_exempt # 还有使用data参数是存放post数据,params是get数据 requset.post(url='https://www.bilibili.com/video/av21534444/',data={'p':4,'a':1})

# 还要注意的是data参数是一个字典,但是该字典的value值不能也是个字典(ajax请求也一样),如果是,则会被转化为列表(只剩下键)。
# 要通过序列化的参数json,并且django的视图,要从request.body中取。(额外知识:request.body只能用于post请求,因为get请求requset.body会没有值而报错)
requset.post(url='https://www.bilibili.com/video/av21534444/',json={'p':4,'a':{1:1,2:2}})


# 返回值

response = request.get(url='xxx')
response.content #字节
response.text #字符串

response.encoding = response.apparent_encoding #指定编码为其网页指定的

# cookies
response.cookies.get_dict()
requset.get(url='xx',cookie={'xx':'xx'})


重要参数说明


 

BeautifulSoup模块

详细

# 帮助html,结构化为对象
pip3 install beautifulsoup4
 from bs4 import BeautifulSoup

html_doc = """
<html><head><title>The Dormouse's story</title></head>
<body>
asdf
    <div class="title">
        <b>The Dormouse's story总共</b>
        <h1>f</h1>
    </div>
<div class="story">Once upon a time there were three little sisters; and their names were
    <a  class="sister0" id="link1">Els<span>f</span>ie</a>,
    <a href="http://example.com/lacie" class="sister" id="link2">Lacie</a> and
    <a href="http://example.com/tillie" class="sister" id="link3">Tillie</a>;
and they lived at the bottom of a well.</div>
ad<br/>sf
<p class="story">...</p>
</body>
</html>
"""
 
soup = BeautifulSoup(html_doc, features="lxml")
# 找到第一个a标签
tag1 = soup.find(name='a')
# 找到所有的a标签
tag2 = soup.find_all(name='a')
# 找到id=link2的标签
tag3 = soup.select('#link2')

常用方法属性整理

使用BeautifulSoup提取文章简介

from bs4 import BeautifulSoup
bs = BeautifulSoup(s,'html.parser')
bs.text

过滤XSS

# XSS的危害:相当于让浏览器执行一堆可执行的脚本
    
from bs4 import BeautifulSoup
bs = BeautifulSoup(s,'html.parser')
for tag in bs.find_all(): #内部递归遍历文档树
    if tag.name in ['script','link']:
        tag.decompose() #从文档树中删除
article_detail=str(bs) #获得过滤后的html字符串

 

concurrent模块

线程池和进程池

from concurrent.futures import ThreadPoolExecutor
pool = ThreadPoolExecutor(10)
for item in task['data']:
hostname = item['hostname']
pool.submit(self.run, hostname)
pool.shutdown(wait=True)

def run(self, hostname):
server_info = plugins.get_server_info(hostname)
server_json = Json.dumps(server_info.data)
self.post_asset(server_json, self.callback)

 

Gevent模块

gevent开发指南

 

 

SMTP模块(邮件模块)

比较好的例子

redis 模块

redis-py提供管道,管道可以看作redis的批处理技术。 redis-py默认是设置一个值就要链接一次。但每次设置一个值都要连接一次,效率非常的低。 所以Redis提供管道技术可以在服务端未响应时,客户端可以继续向服务端发送请求,并最终一次性读取所有服务端的响应。

import redis

#事务+一次发送多个命令:
conn = redis.Redis(host='47.94.172.250',port=6379,password='Luffy!4321')    
pipe = conn.pipeline(transaction=True)
pipe.multi()
pipe.set('k2','123')
pipe.hset('k3','n1',666)
pipe.lpush('k4','laonanhai')    
pipe.execute()
#通过yield创建一个生成器完成一点一点获取(通过字典操作的源码来的灵感)
# hscan_iter(切记:一般到公司以后,如果不知道数据到底有多少条,千万不要用hgetall,而用这个)
  例如,取出一个key的所有val进行打印(1000w条,hash类型)
   方案一:一次取完(不可行)
  如果1000w条一次取完,内存爆炸
  方案二:一次取一个val(可行,浪费)
  每次取1个值都要来回收发,非常低效
  方案三:折中做法(迭代器做法,就是这个)
  一次发个100条,读完再发
def list_iter(key, count=100): index = 0 while True: data_list = conn.lrange('k1', index, index + count - 1) if not data_list: return index += count for item in data_list: yield item  

 连接池
本质是维护一个已经和服务端连接成功的socket。以后再次发送数据时,直接从连接池中取一个socket,直接send数据即可。

 

#!/usr/bin/env python
# -*- coding:utf-8 -*-
 
import redis
 
pool = redis.ConnectionPool(host='10.211.55.4', port=6379)
 
r = redis.Redis(connection_pool=pool)
r.set('foo', 'Bar')
print r.get('foo')

 

redis的name可以带有通配符,delete不行但可以传入*列表来解包

注意:运维的禁忌,不能用keys(数据一多很麻烦),尽量用scan_iter

 

posted @ 2018-05-28 15:16  新卡辣辣  阅读(282)  评论(0编辑  收藏  举报
带我上天