摘要: 今天偷个懒写篇总结性的文章,我们在写爬虫,对网络抓包或逆向一些token参数时常常遇到一长串的字符,看到一长串不知其意义的字符串往往有点懵圈。如果你靠肉眼能从这一长串字符中看出一些特征或含义,那么会加快你写爬虫解析网络参数的步伐,也能给你提供分析思路。 这篇文章就是总结一下常见的字符串编码的格式和特 阅读全文
posted @ 2020-11-01 23:18 阿布_alone 阅读(794) 评论(0) 推荐(0) 编辑
摘要: 当用python3做爬虫的时候,一些网站为了防爬虫会设置一些检查机制,这时我们就需要添加请求头,伪装成浏览器正常访问。 header的内容在浏览器的开发者工具中便可看到,将这些信息添加到我们的爬虫代码中即可。 ‘Accept-Encoding’:是浏览器发给服务器,声明浏览器支持的编码类型。一般有g 阅读全文
posted @ 2020-11-01 23:03 阿布_alone 阅读(868) 评论(0) 推荐(0) 编辑
摘要: 摘自:微信公众号:无量测试之道 1、MongoDB 高级操作 数据是随意构建的,大家在练习时可以自己创建,现有的数据为: > db.test.find(){ "_id" : ObjectId("5eecc55ec2e3725b5715931b"), "name" : "tony", "age" : 阅读全文
posted @ 2020-11-01 22:26 阿布_alone 阅读(124) 评论(0) 推荐(0) 编辑
摘要: curl 介绍: curl是基于URL语法在命令行方式下工作的文件传输工具,它支持FTP,FTPS,HTTP,HTTPS,GOPHER,TELNET,DICT,FILE及LDAP等协议。curl支持HTTPS认证,并且支持HTTP的POST,PUT等方法,FTP上传,kerberos认证,HTTP上 阅读全文
posted @ 2020-11-01 22:18 阿布_alone 阅读(143) 评论(0) 推荐(0) 编辑
摘要: 简单例子: import schedule import time def run(): print("I'm doing something...") schedule.every(10).minutes.do(run) # 每隔十分钟执行一次任务 schedule.every().hour.do 阅读全文
posted @ 2020-11-01 21:23 阿布_alone 阅读(106) 评论(0) 推荐(0) 编辑
TOP