基本常识
1. 位和字节
说起编码,我们必须从最基础的说起,位和字节(别觉得这个过于简单不值一说,我还真见过很多个不能区分这两者的程序员)。位(bit)是指计算机里存放的二进制值(0/1),而 8 个位组合成的“位串”称为一个字节,容易算出, 8 个位的组合有 256(28)个组合方式,其取值范围是 00000000-11111111
,常用十六进制来表示。比如 01000001
就是一个字节,其对应的十六进制值为 0×41
。
而我们通常所讲的字符编码,就是指定义一套规则,将真实世界里的字母/字符与计算机的二进制序列进行相互转化。如我们可以针对上面的字节定义如下的转换规则:
01000001(0x41)<-> 65 <-> 'A'
即用字位序 01000001
来表示字母 A
。
2. 拉丁字符
拉丁字符是当今世界使用最广泛的符号了。通常我们说的拉丁字母,指的的是基础拉丁字母,即指常见的 ABCD
等 26 个英文字母,这些字母与英语中一些常见的符号(如数字、标点符号)称为基础拉丁字符,这些基础拉丁字符在使用英语的国家广为流行,当然在中国,也被用来当作汉语拼音使用。在欧洲其它一些非英语国家,为满足其语言需要,在基础拉丁字符的基础上,加上一些连字符,变音字符(如 Á
),形成了派生拉丁字母,其表示的字符范围在各种语言有所不同,而完整意义上的拉丁字符是指这些变体字符与基础拉丁字符的全集。是比基础拉丁字符集大很多的一个集合。
编码标准
前文提到,字符编码是一套规则。既然是规则,就必须有标准。下面我就仔细说说常见的字符编码标准。
1. 拉丁编码
ASCII 的全称是 American Standard Code for Information Interchange(美国信息交换标准代码)。顾名思义,这是现代计算机的发明国美国人设计的标准,而美国是一个英语国家,他们设定的 ASCII 编码也只支持基础拉丁字符。ASCII 的设计也很简单,用一个字节(8 个位)来表示一个字符,并保证最高位的取值永远为 0
。即表示字符含义的位数为 7 位,不难算出其可表达字符数为 27 = 128 个。这 128 个字符包括 95 个可打印的字符(涵盖了 26 个英文字母的大小写以及英文标点符号能)与 33 个控制字符(不可打印字符)。例如下表,就是几个简单的规则对应:
字符类型 | 字符 | 二进制 | 16 进制 | 10 进制 |
---|---|---|---|---|
可打印字符 | A |
01000001 |
0×41 |
65 |
可打印字符 | a |
01100001 |
0×61 |
97 |
控制字符 | \r |
00001101 |
0x0D |
13 |
控制字符 | \n |
00001010 |
0xA |
10 |
前面说到了,ASCII 是美国人设计的,只能支持基础拉丁字符。而当计算机发展到欧洲,欧洲其它不只是用的基础拉丁字符的国家(即用更大的派生拉丁字符集)该怎么办呢?
当然,最简单的办法就是将美国人没有用到的第 8 位也用上就好了,这样能表达的字符个数就达到了 28 = 256 个,相比较原来,增长了一倍, 这个编码规则也常被称为 EASCII。EASCII 基本解决了整个西欧的字符编码问题。但是对于欧洲其它地方如北欧,东欧地区,256 个字符还是不够用,如是出现了ISO 8859,为解决 256 个字符不够用的问题,ISO 8859 采取的不再是单个独立的编码规则,而是由一系列的字符集(共 15 个)所组成,分别称为 ISO 8859-n (n=1,2,3…11,13…16, 没有12)
。其每个字符集对应不同的语言,如 ISO 8859-1 对应西欧语言,ISO 8859-2 对应中欧语言等。其中大家所熟悉的 Latin-1 就是 ISO 8859-1 的别名,它表示整个西欧的字符集范围。 需要注意的一点的是,ISO 8859-n 与 ASCII 是兼容的,即其 0000000(0×00)-01111111(0x7f)
范围段与 ASCII 保持一致,而 10000000(0×80)-11111111(0xFF)
范围段被扩展用到不同的字符集。
2. 中文编码
以上我们接触到的拉丁编码,都是单字节编码,即用一个字节来对应一个字符。但这一规则对于其它字符集更大的语言来说,并不适应,比如中文,而是出现了用多个字节表示一个字符的编码规则。常见的中文 GB2312(国家简体中文字符集)就是用两个字节来表示一个汉字(注意是表示一个汉字,对于拉丁字母,GB2312 还是是用一个字节来表示以兼容 ASCII)。我们用下表来说明各中文编码之间的规则和兼容性。
对于中文编码,其规则实现上是很简单的,一般都是简单的字符查表即可,重要的是要注意其相互之间的兼容性问题。如果选择 BIG5 字符集编码,就不能很好的兼容 GB2312,当做繁转简时有可能导致个别字的冲突与不一致,但是 GBK 与 GB2312 之间就不存在这样的问题。
3. Unicode
以上可以看到,针对不同的语言采用不同的编码,有可能导致冲突与不兼容性,如果我们打开一份字节序文件,如果不知道其编码规则,就无法正确解析其语义,这也是产生乱码的根本原因。有没有一种规则是全世界字符统一的呢?当然有,Unicode 就是一种。为了能独立表示世界上所有的字符,Unicode 采用 4 个字节表示一个字符,这样理论上 Unicode 能表示的字符数就达到了 231 = 2147483648 = 21 亿左右个字符,完全可以涵盖世界上一切语言所用的符号。我们以汉字“微信”两字举例说明:
微 <-> \u5fae <-> 00000000 00000000 01011111 10101110
信 <-> \u4fe1 <-> 00000000 00000000 01001111 11100001
容易从上面的例子里看出,Unicode 对所有的字符编码均需要四个字节,而这对于拉丁字母或汉字来说是浪费的,其前面三个或两个字节均是 0,这对信息存储来说是极大的浪费。另外一个问题就是,如何区分 Unicode 与其它编码这也是一个问题,比如计算机怎么知道四个字节表示一个Unicode 中的字符,还是分别表示四个 ASCII 的字符呢?
以上两个问题,困扰着 Unicode,让 Unicode 的推广上一直面临着困难。直至 UTF-8 作为 Unicode 的一种实现后,部分问题得到解决,才得以完成推广使用。说到此,我们可以回答文章一开始提出的问题了,UTF-8 是 Unicode 的一种实现方式,而 Unicode 是一个统一标准规范,Unicode的实现方式除了 UTF-8 还有其它的,比如 UTF-16 等。
话说当初大牛 Ben Thomson 吃饭时,在一张餐巾纸上,设计出了 UTF-8,然后回到房间,实现了第一版的 UTF-8。关于 UTF-8 的基本规则,其实简单来说就两条(来自阮一峰老师的总结):
- 规则 1:对于单字节字符,字节的第一位为 0,后 7 位为这个符号的 Unicode 码,所以对于拉丁字母,UTF-8 与 ASCII 码是一致的。
- 规则 2:对于 n 字节(n > 1)的字符,第一个字节前 n 位都设为 1,第 n+1 位为 0,后面字节的前两位一律设为 10,剩下没有提及的位,全部为这个符号的 Unicode 编码。
通过,根据以上规则,可以建立一个 Unicode 取值范围与 UTF-8 字节序表示的对应关系,如下表
举例来说,微
的 Unicode 是 \u5fae
,二进制表示是 00000000 00000000 01011111 10101110
,其取值就位于 0000 0800-0000 FFFF
之间,所以其 UTF-8 编码为 11100101 10111110 10101110
(加粗部分为固定编码内容)。
通过以上简单规则,UTF-8 采取变字节的方式,解决了我们前文提到的关于 Unicode 的两大问题。同时,作为中文使用者需要注意的一点是 Unicode(UTF-8) 与 GBK,GB2312 这些汉字编码规则是完全不兼容的,也就是说这两者之间不能通过任何算法来进行转换,如需转换,一般通过 GBK 查表的方式来进行。
常见问题及解答
windows Notepad 中的编码 ANSI 保存选项,代表什么含义?
ANSI 是 windows 的默认的编码方式,对于英文文件是 ASCII 编码,对于简体中文文件是 GB2312 编码(只针对 Windows 简体中文版,如果是繁体中文版会采用 Big5 码)。所以,如果将一个 UTF-8 编码的文件,另存为 ANSI 的方式,对于中文部分会产生乱码。
什么是 UTF-8 的 BOM?
BOM 的全称是 Byte Order Mark,BOM 是微软给 UTF-8 编码加上的,用于标识文件使用的是 UTF-8 编码,即在 UTF-8 编码的文件起始位置,加入三个字节
EE BB BF
。这是微软特有的,标准并不推荐包含 BOM 的方式。采用加 BOM 的 UTF-8 编码文件,对于一些只支持标准 UTF-8 编码的环境,可能导致问题。比如,在 Go 语言编程中,对于包含 BOM 的代码文件,会导致编译出错。详细可见我的这篇文章。
为什么数据库 Latin1 字符集(单字节)可以存储中文呢?
其实不管需要使用几个字节来表示一个字符,但最小的存储单位都是字节,所以,只要能保证传输和存储的字节顺序不会乱即可。作为数据库,只是作为存储的使用的话,只要能保证存储的顺序与写入的顺序一致,然后再按相同的字节顺序读出即可,翻译成语义字符的任务交给应用程序。比如
微
的UTF-8编码是0xE5 0xBE 0xAE
,那数据库也存储0xE5 0xBE 0xAE
三个字节,其它应用按顺序从数据库读取,再按 UTF-8 编码进行展现。这当然是一个看似完美的方案,但是只要写入,存储,读取过程中岔出任何别的编码,都可能导致乱码。
MySQL 数据库中多个字符集变量(其它数据库其实也类似),它们之间分别是什么关系?
我们分别解释:
character_set_client
:客户端来源的数据使用的字符集,用于客户端显式告诉客户端所发送的语句中的的字符编码。character_set_connection
:连接层的字符编码,MySQL 一般用character_set_connection
将客户端的字符转换为连接层表示的字符。character_set_results
:查询结果从数据库读出后,将转换为character_set_results
返回给前端。而我们常见的解决乱码问题的操作:
mysql_query('SET NAMES GBK')
其相当于将以上三个字符集统一全部设置为 GBK,这三者一致时,一般就解决了乱码问题。character_set_database
:当前选中数据库的默认字符集,如当create table
时没有指定字符集,将默认选择该字符集。character_set_database
已经character_set_system
,一般用于数据库系统内部的一些字符编码,处理数据乱码问题时,我们基本可以忽略。
什么情况下,表示信息丢失?
对于 MySQL 数据库,我们可以通过 hex (colname) 函数(其它数据库也有类似的函数,一些文本文件编辑器也具有这个功能),查看实际存储的字节内容,如:
通过查看存储的字节序,我们可以从根本上了解存储的内容是什么编码了。而当发现存储的内容全部是
3F
时,就表明存储的内容由于编码问题,信息已经丢失了,无法再找回。之所以出现这种信息丢失的情况,一般是将不能相互转换的字符集之间做了转换,比如我们在前文说到,UTF-8 只能一个个字节地变成 Latin-1,但是根本不能转换的,因为两者之间没有转换规则,Unicode 的字符对应范围也根本不在 Latin-1 范围内,所以只能用
?(0x3F)
代替了。
总结
本文从基础知识与实际中碰到的问题上,解析了字符编码相关内容。而之所以要从头介绍字符编码的基础知识,是为了更好的从原理上了解与解决日常碰到的编码问题,只有从根本上了解了不同字符集的规则及其之间的关系与兼容性,才能更好的解决碰到的乱码问题,也能避免由于程序中不正确的编码转换导致的信息丢失问题。
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。