信息的概念在我们这个时代无处不在。但要对这个术语的含义给出一个精确的定义却不那么明显。一个基本的直觉是,信息与知识相关,并且可以被传递。在 20 世纪 30 年代和 40 年代,图灵和香农将信息的概念从其物理载体中抽象出来,目的是建立一个适用于所有物理系统的通用信息和计算理论。在通用信息理论中,基本单位是比特。一个比特可以取两个值。在实践中,比如在计算机中,这可能是电流是否存在,或者一个微小的磁铁是指向上方还是下方,等等。然而,对于信息论而言,物理细节完全不重要,我们只需用值 0 或 1 标记这两个状态。在信息论中,我们想到的是某个过程,一个源,生成符号序列。例如,这可能是你在电脑上打字。我们如何使用比特来测量信息?让我们用压缩的基本例子来具体说明这一点。假设您在计算机上编写了一份文档。您可以通过将每个符号编码为位来保存文档。如果您使用包含 k 个符号的字母表编写了长度为 n 的文本,这将需要 n ⌈ log k ⌉ 位(因为您需要 ⌈ log k ⌉ 位来编码字母表中的单个符号)。但是,您可能很熟悉,您也可以让计算机将文本文件压缩为更少的位数。此过程使得您可以通过某种算法从压缩文件中恢复原始文档。这表明,考虑文本文档中存在的信息量的合理方法可能是您可以压缩文件到的最小位数。信息的第二个基本方面涉及传输。物理通信信道(例如电缆或电磁波)通常很嘈杂:如果发出特定信号,它可能会在途中损坏。但是,可以通过向信号添加冗余来纠正错误。信息论研究如何添加尽可能少的冗余以实现可靠的通信。信息理论对于高速电子通信的运行至关重要。
主要关键词