计算机如何储存数字和字符
前言
最近在学习中涉及到计算机储存、传输数字和字符等操作,由于对字节、2进制、10进制、16进制、ASCII码的概念以及它们之间的关系和转换理解的不够透彻,导致在通讯、MD5消息摘要算法等时候出现问题,是因为数据转成计算机认识的01的这个环节出现问题。由于这个问题并不是那么容易发现,所以我也算是花了挺多时间才解决了这个问题,记录下解决过程,顺便也当复习一下计算机组成原理。
ASCII码
在计算机中,所有的数据在存储和运算时都要使用二进制数表示(因为计算机用高电平和低电平分别表示1和0),例如,像a、b、c、d这样的52个字母(包括大写)以及0、1等数字还有一些常用的符号(例如*、#、@等)在计算机中存储时也要使用二进制数来表示,而具体用哪些二进制数字表示哪个符号,当然每个人都可以约定自己的一套(这就叫编码),而大家如果要想互相通信而不造成混乱,那么大家就必须使用相同的编码规则,于是美国有关的标准化组织就出台了ASCII编码,统一规定了上述常用符号用哪些二进制数来表示。
ASCII 码一共规定了128个字符(0000 0000-0111 1111)的编码,比如空格SPACE是32(二进制0010 0000),大写的字母A是65(二进制0100 0001 )。这128个符号(包括32个不能打印出来的控制符号),只占用了一个字节的后面7位(低7位),最前面的一位(高1位)统一规定为0(不要和数字的符号位搞混)。
当然除了ASCII码,还有UTF-8、GBK等。
字节
字节(Byte)普通计算机系统能读取和定位到最小信息单位,即我们通过计算机储存和传输数据的时候都是先把数据转成字节。
字节即Byte,一个字节代表8个比特(Bit),字节通常缩写为B,比特通常缩写为b。字节的大小是8Bit,即字节的范围是0000 0000 - 1111 1111,对于无符号型,它表示的十进制范围是[0,255],对于有符号型,高一位表示符号位,它表示的十进制范围是[-128,127]。
计算机若何储存数据
计算机只认识0和1(因为计算机只有高低电平两个状态),数据要想通过计算机储存或者传输,首先是要把数据转成计算机能认识的格式即01数据。
我们举个例子,以储存十进制数字28和-28为例,首先将十进制数转成二进制。
需要注意的是: 数字在计算机中储存的是补码,而字符是在计算机中储存的是字符对应的编码(不要和数字的补码搞混)。
数字
储存十进制数字28和-28为例,首先将十进制数转成二进制,高1位为0代表正数,为1代表负数
28(10) = 0001 1100(2)(原码)
-28(10) = 1001 1100(2)(原码)
然后计算机将二进制数字进行补码运算,运算结果如下
28(10) = 0001 1100(2)(原码) = 0001 1100(2)(补码)
-28(10) = 1001 1100(2)(原码) = 1110 0100(2)(补码)
然后计算机保存的就是补码,当要取出数据的时候,就将补码逆运算一下,即可求出原码,再将原码转换一下就可以得到真实的数据了。
下面以Java语言演示这个过程,首先我们要清楚Java的byte、short、int、long都是有符号的(signed)
public class test {
public static void main(String[] args) throws NoSuchAlgorithmException {
int a1 = 28;
int a2 = -28;
// 转成二进制表示
String b1 = Integer.toBinaryString(a1);
String b2 = Integer.toBinaryString(a2);
// 转成无无符号表示
String b3 = Integer.toUnsignedString(a1);
String b4 = Integer.toUnsignedString(a2);
System.out.println("28储存到计算机后为:" + b1);
System.out.println("-28储存到计算机后为:" + b2);
System.out.println("取出储存的28 以无符号表示:" + b3);
System.out.println("取出储存的-28 以无符号表示:" + b4);
}
}
运行输出:
28储存到计算机后为:11100
-28储存到计算机后为:11111111111111111111111111100100
取出储存的28 以无符号表示:28
取出储存的-28 以无符号表示:4294967268
我们验证一下结果,验证了计算机确实是以补码的方式储存数字。这里有个小问题,就是我们知道int型有4个字节即32个比特,但是28却输出了111005个比特而已,是因为toBinaryString()方法把11100前面的0给忽略了。
取出的时候,我们以无符号的标准去处理,导致取出存入的-28结果是4294967268和我们存入的不一样,这是因为-28是负数,负数的补码和原码不一样,而用无符号处理的话就是直接将11111111111111111111111111100100转成结果了。而为什么28用有无符号处理结果都一样是因为正数的原码和补码一样,这样验证了Java的数据类型都是有符号的。
至于计算机为什么用补码来储存数字,而不是原码,原因是:
拿单字节整数来说,无符号型,其表示范围是[0,255],总共表示了256个数据。有符号型,其表示范围是[-128,127]。
先看无符号,原码和补码都一样,0表示为0000 0000,255表示为1111 1111,刚好满足了要求,可以表示256个数据。
再看有符号的,若是用原码表示,0表示为0000 000。因为咱们有符号,所以应该也有个负0(虽然它还是0)1000 0000。这样的话那就有2个0,也就是只能表示255个数据,不能够满足我们的要求。而用补码则很好的解决了这个问题。
字符
在计算机中,对非数值的字符进行处理时,要对字符进行数字化,即用二进制编码来表示字符。其中西文字符最常用到的编码方案有ASCII编码和EBCDIC编码。对于汉字,我国也制定的相应的编码方案,比如 GBK,GB2312等。
比如字符a的ASCII码十进制值为97,在计算机中用二进制表示就是 01100001。下面同样用Java来演示计算机是如何储存字符的。
采用UTF-8和GBK两种编码储存汉字
public class test {
public static void main(String[] args) throws NoSuchAlgorithmException {
String a1 = "中";
// 采用两种不同的编码储存"中"这个汉字 比较两种编码
byte[] b1 = a1.getBytes("GBK");
byte[] b2 = a1.getBytes("UTF-8");
String c1 = binary(b1,2);
String c2= binary(b2,2);
System.out.println("GBK储存对应的二进制:" + c1);
System.out.println("UTF-8储存对应的二进制:" +c2);
}
/**
* 将byte[]转为各种进制的字符串
* @param bytes byte[]
* @param radix 基数可以转换进制的范围,从Character.MIN_RADIX到Character.MAX_RADIX,超出范围后变为10进制
* @return 转换后的字符串
*/
public static String binary(byte[] bytes, int radix){
return new BigInteger(1, bytes).toString(radix);// 这里的1代表正数
}
}
我们调试看看,发现GBK编码采用2个字节储存,储存的数据分别是10进制的-42和-48对应的二进制分别是11010110和11010000(补码),即汉字中对应的二进制为1101011011010000,即16进制的D6D0,查看GBK对照表,发现16进制编码D6D0对应的汉字确实是中
而UTF-8编码采用3个字节储存,同理将对应的二进制111001001011100010101101转成16进制,为E4B8AD,通过UTF-8编码查询,发现汉字中对应的16进制编码确实是E4B8AD