在信息论框架内,两个随机变量之间存在相关性意味着我们可以通过测量或观察另一个随机变量来获得有关其中一个变量的信息。在某些情况下,这种关系允许获取有关一个变量的信息,即使另一个变量相隔很远,也就是说,获取信息的过程是非局部的,一个例子(如果不是唯一的例子)就是量子纠缠。相关性的这些特征使得研究、分类和量化它们变得有趣和重要。相关性分为经典相关性和量子相关性,此外,它们通过互信息进行量化。在这里,我们将提出一种定义经典互信息的自然方法,然后将其推广到量子情况。此外,互信息定义中的每个术语都将使用经典和量子熵的概念进行解释。关键词:信息熵、相关性、互信息。