爬虫会遇到常见编码问题

今天偷个懒写篇总结性的文章,我们在写爬虫,对网络抓包或逆向一些token参数时常常遇到一长串的字符,看到一长串不知其意义的字符串往往有点懵圈。如果你靠肉眼能从这一长串字符中看出一些特征或含义,那么会加快你写爬虫解析网络参数的步伐,也能给你提供分析思路。

 

这篇文章就是总结一下常见的字符串编码的格式和特征。

 

URL编码

请求URL的时候通常看见以%开头的字符串,这一般是对字符做了URL编码处理。

http%3A%2F%2Fwww.yuanrenxue.com%2F

比如上面字符串,经常看的话其实你就知道上面的含义,%3A是: %2F是/ 。

解码后的完整URL其实是:

http://www.yuanrenxue.com/

可以使用urllib.parse.quote做URL编码,用urllib.parse.unquote做解码。比如我们对 猿人学 三个字做一下URL编码:

>>import urllib
>>st = '猿人学'
>>enc_st = urllib.parse.quote(st)
>>print(enc_st)
>>%E7%8C%BF%E4%BA%BA%E5%AD%A6
>>
>>urllib.parse.unquote(enc_st)
>>猿人学

%E7%8C%BF%E4%BA%BA%E5%AD%A6 这一串就是猿人学URL编码

 

再用urllib.parse.unquote对这一串解码就是猿人学三个字。

 

Python中做URL编码一般是对特殊字符做编码处理,你可以简单认为对非英语字符做编码处理,实际上我们在写爬虫分析对方JS时,你会发现对方把英语字符也做了编码处理。

 

同样的 http://www.yuanrenxue.com/ 这串在Python一般编码后是:

http%3A%2F%2Fwww.yuanrenxue.com%2F

在Javascript中可以是这样:

%68%74%74%70%3A%2F%2F%77%77%77%2E%79%75%61%6E%72%65%6E%78%75%65%2E%63%6F%6D%2F

它是对所有字符都做了编码。

 

Unicode转义

有时你打开一张网页,想分析下它的网页结构,发现网页里全都是密密麻麻的&#开头的字符,完全不认识,例如是这样的:

看得人头晕,但是它有一个特征都是以&#开头,以;结尾的。这是HTML中一种Unicode转义,在网页中做Unicode编码就是这样子的。

我们来测试一下:

>>import html
>>
>>s = '''今天偷个懒写篇总结性的文章,我们在'''
>>
>>print(html.unescape(s))
>> 今天偷个懒写篇总结性的文章,我们在

如上代码,我们使用html.unescape可以还原这些文字,还原出来的文字是我这篇文章的开篇词。

 

16进制Unicode转义

上面的Unicode转义是 这样:

今天偷个懒

&#后面是的数字是10进制的,还有一种&#后面是16进制的,比如:

>>import html
>>
>>s = '''今天偷个懒写篇总结性的文章,我们在'''
>>
>>print(html.unescape(s))
>>今天偷个懒写篇总结性的文章,我们在

也是用html.unescape可以还原。

 

UTF-8编码

\u4eca\u5929\u5077\u4e2a\u61d2\u5199\u7bc7\u603b\u7ed3\u6027\u7684\u6587\u7ae0\uff0c\u6211\u4eec\u5728

\u后面加四个字符的是UTF-8编码

转换很简单:

>>s = '\u4eca\u5929\u5077\u4e2a\u61d2\u5199\u7bc7\u603b\u7ed3\u6027\u7684\u6587\u7ae0\uff0c\u6211\u4eec\u5728'
>>print(s)
>> 天偷个懒写篇总结性的文章,我们在

Python内部会转换。

 

base64编码

写爬虫抓取时,常常会看到token里带有类似:eXVhbnJlbnh1ZS5jb20=

这样的字符串,常常字符串后面以=结尾的,很可能就是base64编码了的。

>>import base64
>>str = 'yuanrenxue.com'
>>bytesStr = str.encode(encoding='utf-8')
>>b64str = base64.b64encode(bytesStr)
>>print(b64str)
>>b'eXVhbnJlbnh1ZS5jb20='

如上代码,我们对yuanrenxue.com做base64编码出来的是以=结尾的。

 

 

\8e\x9e

s = '\xe9\x9d\x92\xe8\x9b\x99\xe7\x8e\x8b\xe5\xad\x90'
ss = s.encode('raw_unicode_escape')
print(ss)  # 结果:  b'\xe9\x9d\x92\xe8\x9b\x99\xe7\x8e\x8b\xe5\xad\x90'
sss = ss.decode()
print(sss)

如果是中文混合这种乱码,则用循环删除掉

mys='宝石 \x9e\x9d\x99'
 
sl = list(mys)
i=0 
while i<len(sl):
    s=sl[i]
    try:
        s=s.encode('raw_unicode_escape').decode('utf-8')
        i+=1
    except:
        #删掉它 
        sl.remove(s)
mys=''.join(mys)
print(mys)
 

 

 

总结:

1.以%开头的一般是做了URL编码的,用urllib.parse.unquote()解码。

 

2.以&#开头的一般是做了Unicode转义处理,html.unescape()做反转义。

 

3.以&#x开头的是做了Unicode 16进制转义,也用html.unescape()做反转义。

 

4.以\u开头的是一般是UTF-8编码。

 

5.字符串后面以=结尾的,通常是做了base64编码处理的。

 

 

摘自:微信公众号:猿人学Python

 

posted @ 2020-11-01 23:18  阿布_alone  阅读(816)  评论(0编辑  收藏  举报
TOP