首先说一下背景:由于计算机是美国人发明的,因此最早只有127个字母被编码到计算机中,也就是大小写英文字母、数字和一些符号,这个编码表称为ASCII编码。
例如:大写字母A的编码是65,小写字母z的编码时122。
要处理中文,显然一个字节是不够的,至少需要两个字节,且不能和ASCII编码冲突,所以我国制定了GB2312编码,用于把中文编进去。
可以想象,全世界上有上百种语言,日本把日文编写到Shift_JIS里,韩国把韩文编写到Euc-kr里,各国有各国的标准,就不可避免出现冲突,结果就是,在多语言混合的文本中就会显示乱码。
在此背景下,Unicode应运而生,Unicode把所有语言都统一到一套编码里,这样就不会有乱码问题了。
Unicode标准在不断发展,最常用的是用两个字节表示一个字符(如果要用到非常生僻的字符,就需要4个字节)。现代操作系统和大多数编程语言都直接支持Unicode。
下面看看ASCII编码和Unicode编码的区别:ASCII编码时1个字节,而Unicode编码通常是两个字节。
字母A用ASCII编码是十进制的65,二进制的01000001。
字符0用ASCII编码是十进制的48,二进制的00110000。
注意字符0和整数0是不同的。
汉字“中”已经超出了ASCII编码的范围,用Unicode编码是十进制的20013,二进制的01001110 00101101。
如果把ASCII编码的A用Unicode编码,只需要在前面补0就可,因此A的Unicode编码是00000000 01000001。
那么新的问题就出现了:如果统一成Unicode编码,乱码问题从此消失了,但是写的文本基本上全部是英文时,用Unicode编码比ASCII编码多一倍存储空间,在存储和传输上十分不划算。
本着节约的精神,又出现了把Unicode编码转化成为“可变长编码”的UTF-8编码。UTF-8编码把一个Unicode字符根据不同的数字大小编码成1~6个字节,常用的英文字母被编码成1个字节,汉字通常是3个字节,只有很生僻的字符才会被编码成4
-6个字节。如果你要传输的文本包含大量英文字母,用UTF-8编码就会节省空间。
由上表可知,UTF-8编码有一个额外的好处,就是ASCII编码实际上可看成是UTF-8编码的一部分,所以只支持ASCII编码的大量历史遗留软件可在UTF-8编码下继续使用。
搞清楚ASCII、Unicode和UTF-8的关系后,可总结一下现在计算机系统通用的字符编码工作方式:在计算机内存中,统一使用Unicode编码,当需要保持到硬盘或需要传输时,可转换为UTF-8编码。
例如,用记事本编辑时,从文件读取的UTF-8字符转换为Unicode字符到内存;编辑完成后,保持时再把Unicode转换为UTF-8保持到文件。
1、通常说的文件(非空)采用UTF-8编码,具体内涵是什么?
文件的编码方式是在创建时指定的,将UTF-8编码的文件内容呈现给用户,可能需要经历3个过程:
(1)OS将文件从硬盘读取到内存
OS会采用UTF-8将文件中的字符编码为字节码(二进制串),并以unicode字节码的形式在内存存储。
(2)OS将内存中的文件内容输出到显示器显示
OS将字节码按照UTF-8规则解码为字符并在显示器上渲染显示。(字符只是人的感受,对于计算机来说都是二进制串)
(3)OS将内存中的文件内容存储到硬盘
OS将文件对应的unicode字节码转为UTF-8的格式在硬盘存储。