爬虫会遇到常见编码问题
今天偷个懒写篇总结性的文章,我们在写爬虫,对网络抓包或逆向一些token参数时常常遇到一长串的字符,看到一长串不知其意义的字符串往往有点懵圈。如果你靠肉眼能从这一长串字符中看出一些特征或含义,那么会加快你写爬虫解析网络参数的步伐,也能给你提供分析思路。
这篇文章就是总结一下常见的字符串编码的格式和特征。
URL编码
请求URL的时候通常看见以%开头的字符串,这一般是对字符做了URL编码处理。
http%3A%2F%2Fwww.yuanrenxue.com%2F
比如上面字符串,经常看的话其实你就知道上面的含义,%3A是: %2F是/ 。
解码后的完整URL其实是:
http://www.yuanrenxue.com/
可以使用urllib.parse.quote做URL编码,用urllib.parse.unquote做解码。比如我们对 猿人学 三个字做一下URL编码:
>>import urllib >>st = '猿人学' >>enc_st = urllib.parse.quote(st) >>print(enc_st) >>%E7%8C%BF%E4%BA%BA%E5%AD%A6 >> >>urllib.parse.unquote(enc_st) >>猿人学
%E7%8C%BF%E4%BA%BA%E5%AD%A6 这一串就是猿人学URL编码
再用urllib.parse.unquote对这一串解码就是猿人学三个字。
Python中做URL编码一般是对特殊字符做编码处理,你可以简单认为对非英语字符做编码处理,实际上我们在写爬虫分析对方JS时,你会发现对方把英语字符也做了编码处理。
同样的 http://www.yuanrenxue.com/ 这串在Python一般编码后是:
http%3A%2F%2Fwww.yuanrenxue.com%2F
在Javascript中可以是这样:
%68%74%74%70%3A%2F%2F%77%77%77%2E%79%75%61%6E%72%65%6E%78%75%65%2E%63%6F%6D%2F
它是对所有字符都做了编码。
Unicode转义
有时你打开一张网页,想分析下它的网页结构,发现网页里全都是密密麻麻的&#开头的字符,完全不认识,例如是这样的:
看得人头晕,但是它有一个特征都是以&#开头,以;结尾的。这是HTML中一种Unicode转义,在网页中做Unicode编码就是这样子的。
我们来测试一下:
>>import html >> >>s = '''今天偷个懒写篇总结性的文章,我们在''' >> >>print(html.unescape(s)) >> 今天偷个懒写篇总结性的文章,我们在
如上代码,我们使用html.unescape可以还原这些文字,还原出来的文字是我这篇文章的开篇词。
16进制Unicode转义
上面的Unicode转义是 这样:
今天偷个懒
&#后面是的数字是10进制的,还有一种&#后面是16进制的,比如:
>>import html >> >>s = '''今天偷个懒写篇总结性的文章,我们在''' >> >>print(html.unescape(s)) >>今天偷个懒写篇总结性的文章,我们在
也是用html.unescape可以还原。
UTF-8编码
\u4eca\u5929\u5077\u4e2a\u61d2\u5199\u7bc7\u603b\u7ed3\u6027\u7684\u6587\u7ae0\uff0c\u6211\u4eec\u5728
\u后面加四个字符的是UTF-8编码
转换很简单:
>>s = '\u4eca\u5929\u5077\u4e2a\u61d2\u5199\u7bc7\u603b\u7ed3\u6027\u7684\u6587\u7ae0\uff0c\u6211\u4eec\u5728' >>print(s) >> 天偷个懒写篇总结性的文章,我们在
Python内部会转换。
base64编码
写爬虫抓取时,常常会看到token里带有类似:eXVhbnJlbnh1ZS5jb20=
这样的字符串,常常字符串后面以=结尾的,很可能就是base64编码了的。
>>import base64 >>str = 'yuanrenxue.com' >>bytesStr = str.encode(encoding='utf-8') >>b64str = base64.b64encode(bytesStr) >>print(b64str) >>b'eXVhbnJlbnh1ZS5jb20='
如上代码,我们对yuanrenxue.com做base64编码出来的是以=结尾的。
\8e\x9e
s = '\xe9\x9d\x92\xe8\x9b\x99\xe7\x8e\x8b\xe5\xad\x90' ss = s.encode('raw_unicode_escape') print(ss) # 结果: b'\xe9\x9d\x92\xe8\x9b\x99\xe7\x8e\x8b\xe5\xad\x90' sss = ss.decode() print(sss)
如果是中文混合这种乱码,则用循环删除掉
mys='宝石 \x9e\x9d\x99' sl = list(mys) i=0 while i<len(sl): s=sl[i] try: s=s.encode('raw_unicode_escape').decode('utf-8') i+=1 except: #删掉它 sl.remove(s) mys=''.join(mys) print(mys)
总结:
1.以%开头的一般是做了URL编码的,用urllib.parse.unquote()解码。
2.以&#开头的一般是做了Unicode转义处理,html.unescape()做反转义。
3.以&#x开头的是做了Unicode 16进制转义,也用html.unescape()做反转义。
4.以\u开头的是一般是UTF-8编码。
5.字符串后面以=结尾的,通常是做了base64编码处理的。
摘自:微信公众号:猿人学Python