最近终于看完了《信息简史》,都是利用一些零碎时间在旅途中用多看来看的,电子书实在是在漫漫坐车途中消磨时间必备之物。
简史却海纳百川
《信息简史》虽然名字上带个简字,但看下去才发现完全是一部大部头,当初看了推荐买来看的时候完全没想到本书这么长,中途一度中断了好长时间没看下去。这本书简直就是一部信息百科全书,作者从人类远古时间的结绳记事一路写到21世纪的信息时代,中间穿插了各种历史学,语言学,数学,心理学,通信,物理,哲学,人类学等浩瀚的内容,真心佩服该书作者的博学。也让我自己看得很爽,确实是一部非常值得一读的读物,不单单适合计算机学生,当然计算机的从业人员读的话会对其中的很多术语(编码,解码)和知识感到熟悉。
万物源于比特,信息论就是关于编码解码的科学
读过《上帝掷骰子吗》的同学应该对其中一句话有印象:it from bit。约翰·惠勒的观点认为,万物源于比特。信息在我们日常生活中是如此的常见和普通,例如短信,信件,email,报纸新闻,电视报道等等,那么什么是信息?是地球上每天发生的各种事件吗?是百科全书上的条目还是图书馆成千上成的书籍所包含的知识?我们关注的不是具体信息的载体?一条信息无论其是以文字还是声音抑或是图像的形式表示,又或者无论是用汉字或英文来书写,其蕴含的意义都是等价的。换言之,我们自然就能想到一条信息应该有一种通用的表示方式,它们之间的转换也就是编码,解码。从广义上来说,所有的信息活动本质上都是一个编码解码过程。古人结绳记事是用绳子来编码,非洲人击鼓是以声音来编码,文字本质上也是一种编码。“你好”跟"hello"都是用不同语言来对“问候“这个同一意义的信息来编码。人为熟悉的编码解码过程其实在日常生活中非常多,例如翻译,加密解密,按照五线谱来弹奏乐曲等,当然计算机方面的就更常见了,编译器的编程过程就是一个典型的编码解码过程。
信息是熵,是不确定性
但是我们还是会问一个问题,说到底信息到底是什么东西?如何定义?它有哪些特征和属性?看得见摸得着漂不漂亮可以吃吗?这就是信息论之父--香农所研究的工作。他把信息的定义和度量用数学语言形式化了,信息论从此正式成为一门科学,然后在21世纪取得巨大的发展和成就。「信息是不确定性,是出人意料,是困难程度,是熵。」信息是熵,熵是对不确定性的测量。熵是随机性的度量。
随机性越高,信息量越大,反之越小。
信息可以测量,可以压缩。利用更少的比特来传输更多的信息。这就是各种编码和压缩算法做的事情。
不仅仅是计算机科学
《信息简史》不仅介绍了信息论相关的知识和历史,还重点介绍了人类在计算(机)方面的历史,包括图灵进行的加解密工作和图灵机。毕竟计算机是和信息处理联系最密切最不可分割的两部分。但两者还是有区别的,现在的计算机都是以冯诺依曼的体系结构为主的,而且是以二进制为基础的,但信息其中是在一个更高的层次上的知识,完全可以发明一种完全不同的信息处理设备来对信息进行编码解码传输。信息是现代人类社会最重要的东西,谁掌握了信息谁就能占有绝对的主动权,所以系统化地深入地理解信息的本质以及相关的规律,研究出处理信息更加高效的方法一定能极大地推动人类文明的发展。
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。