python 字符编码
python 字符编码
ASCII
1
2
3
4
5
6
|
记住一句话:计算机中的所有数据,不论是文字、图片、视频、还是音频文件,本质上最终都是按照类似 01010101 的二进制存储的。 再说简单点,计算机只懂二进制数字! 所以,目的明确了:如何将我们能识别的符号唯一的与一组二进制数字对应上?于是美利坚的同志想到通过一个电平的高低状态来代指0或1, 八个电平做为一组就可以表示出 256种不同状态,每种状态就唯一对应一个字符,比如A--->00010001,而英文只有26个字符,算上一些特殊字符和数字,128个状态也够 用了;每个电平称为一个比特为,约定8个比特位构成一个字节,这样计算机就可以用127个不同字节来存储英语的文字了。这就是ASCII编码。 |
扩展ANSI编码
1
2
|
刚才说了,最开始,一个字节有八位,但是最高位没用上,默认为0;后来为了计算机也可以表示拉丁文,就将最后一位也用上了, 从128到255的字符集对应拉丁文啦。至此,一个字节就用满了! |
GB2312
1
2
3
4
|
计算机漂洋过海来到中国后,问题来了,计算机不认识中文,当然也没法显示中文;而且一个字节所有状态都被占满了,万恶的帝国主义亡 我之心不死啊!我党也是棒,自力更生,自己重写一张表,直接生猛地将扩展的第八位对应拉丁文全部删掉,规定一个小于127的字符的意 义与原来相同,但两个大于127的字符连在一起时,就表示一个汉字,前面的一个字节(他称之为高字节)从0xA1用到0xF7,后面一个字节 (低字节)从0xA1到0xFE,这样我们就可以组合出大约7000多个简体汉字了;这种汉字方案叫做 “GB2312”。GB2312 是对 ASCII 的中文扩展。 |
GBK 和 GB13030
1
2
|
但是汉字太多了,GB2312也不够用,于是规定:只要第一个字节是大于127就固定表示这是一个汉字的开始,不管后面跟的是不是扩展字符集里的 内容。结果扩展之后的编码方案被称为 GBK 标准,GBK 包括了 GB2312 的所有内容,同时又增加了近20000个新的汉字(包括繁体字)和符号。 |
UNICODE编码
1
2
3
|
很多其它国家都搞出自己的编码标准,彼此间却相互不支持。这就带来了很多问题。于是,国际标谁化组织为了统一编码:提出了标准编码准 则:UNICODE 。 UNICODE是用两个字节来表示为一个字符,它总共可以组合出65535不同的字符,这足以覆盖世界上所有符号(包括甲骨文) |
utf8:
1
2
3
4
5
6
7
8
9
10
11
12
|
unicode都一统天下了,为什么还要有一个utf8的编码呢? 大家想,对于英文世界的人们来讲,一个字节完全够了,比如要存储A,本来00010001就可以了,现在吃上了unicode的大锅饭, 得用两个字节:00000000 00010001才行,浪费太严重! 基于此,美利坚的科学家们提出了天才的想法:utf8. UTF-8(8-bit Unicode Transformation Format)是一种针对Unicode的可变长度字符编码,它可以使用1~4个字节表示一个符号,根据 不同的符号而变化字节长度,当字符在ASCII码的范围时,就用一个字节表示,所以是兼容ASCII编码的。 这样显著的好处是,虽然在我们内存中的数据都是unicode,但当数据要保存到磁盘或者用于网络传输时,直接使用unicode就远不如utf8省空间啦! 这也是为什么utf8是我们的推荐编码方式。 Unicode与utf8的关系: 一言以蔽之:Unicode是内存编码表示方案(是规范),而UTF是如何保存和传输Unicode的方案(是实现)这也是UTF与Unicode的区别。 |
2.python2
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
|
str类型 ----------->字节编码后的二进制数据 字符串类型 unicode类型-------->unicode编码后的二进制数据 s1= '苑' print type(s1) # <type 'str' > print repr(s1) #'\xe8\x8b\x91 s2=u '苑' print type(s2) # <type 'unicode' > print repr(s2) # u '\u82d1' s1=u '苑' print repr(s1) #u '\u82d1' b=s1.encode( 'utf8' ) print b print type(b) #<type 'str' > print repr(b) # '\xe8\x8b\x91' s2= '苑昊' u=s2.decode( 'utf8' ) print u # 苑昊 print type(u) # <type 'unicode' > print repr(u) # u '\u82d1\u660a' #注意 u2=s2.decode( 'gbk' ) print u2 #鑻戞槉 print len( '苑昊' ) #6 |
3.python 3
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
|
str类型 ---------->unicode编码后的二进制数据 字符串类型 bytes类型-------->bytes编码后的二进制数据 import json s= '苑昊' print(type(s)) #< class 'str' > print(json.dumps(s)) # "\u82d1\u660a" b=s.encode( 'utf8' ) print(type(b)) # < class 'bytes' > print(b) # b '\xe8\x8b\x91\xe6\x98\x8a' u=b.decode( 'utf8' ) print(type(u)) #< class 'str' > print(u) #苑昊 print(json.dumps(u)) # "\u82d1\u660a" print(len( '苑昊' )) # 2 |
练习
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
|
字符编码: - - - utf8存入硬盘 - - - - - - - #coding:utf8 print ( "坏小子" ) - - - - - - - - - - - - - - - - - - - - - 方式一:在pycharm执行 setting都是utf8 python 3 不乱码 python 2 不乱码 方式二:在cmd执行 python 3 不乱码 解释器按utf8解码,翻译为uniode在执行,cmd执行 print ( "坏小子" )时,字符串为 unicode 数据 python 2 乱码 解释器按utf8解码,翻译为bytes在执行,cmd应该把 "坏小子" 打印为bytes数据,而不是明文 但python2解释器会进行一个暗转换,把 "坏小子" bytes数据解码转换为 unicode 数据, cmd按gbk将bytes数据解码为 unicode 时,会出错。 |
http://www.cnblogs.com/yuanchenqi/articles/5956943.html