1 我们的论点与最近另一种论点有很大不同,即(某些)数字计算机可能不具备现象意识(Tononi 和 Koch 2015)。根据 Tononi 的意识整合信息理论 (IIT),该理论认为现象意识等同于最大程度整合的信息,Tononi 和 Koch 认为两个功能相同的系统可以具有相同的输入输出功能,但其中只有一个系统整合信息,而另一个则不整合信息。根据 IIT,后一个系统(即使它在其他方面像人脑一样运作)将是一个没有意识体验的“僵尸”系统(另见 Oizumi 等人2014:第19-22 页)。此外,正如 Tononi 和 Koch (2015) 以及 Koch (2019) 所阐述的那样,由于当前的数字计算机无法像人类大脑那样以任何细粒度的方式整合信息 (Koch 2019,第页 142-4),如果 IIT 是正确的,那么人工智能可能需要“根据大脑的设计原则构建”的神经形态电子硬件来“积累足够的内在因果力量来感受某种东西”(同上,第 150 页;另见 Tononi 和 Koch 2015,第 16 页,脚注。15)。我们的论点至少在两个方面比这更激进。首先,我们的论证意味着,即使是“神经形态”数字机器也可能无法实现连贯的宏观现象意识——因为这样的机器可能仍然无法以一种将基本现象品质组合成连贯的宏观现象流形所必需的方式操纵基本微观物理学。其次,正如我们在第 4 节中解释的那样,我们的论证意味着 IIT 本身可能是错误的。如果我们是正确的,那么人工智能拥有连贯的宏观现象意识的唯一方法可能是让它们成为以正确方式整合基本微观物理现象量的模拟机器。