1 我们的论点与最近另一种论点有很大不同,即(某些)数字计算机可能不具备现象意识(Tononi 和 Koch 2015)。根据 Tononi 的意识整合信息理论 (IIT),该理论认为现象意识等同于最大程度整合的信息,Tononi 和 Koch 认为两个功能相同的系统可以具有相同的输入输出功能,但其中只有一个系统整合信息,而另一个则不整合信息。根据 IIT,后一个系统(即使它在其他方面像人脑一样运作)将是一个没有意识体验的“僵尸”系统(另见 Oizumi 等人2014:第19-22 页)。此外,正如 Tononi 和 Koch (2015) 以及 Koch (2019) 所阐述的那样,由于当前的数字计算机无法像人类大脑那样以任何细粒度的方式整合信息 (Koch 2019,第页 142-4),如果 IIT 是正确的,那么人工智能可能需要“根据大脑的设计原则构建”的神经形态电子硬件来“积累足够的内在因果力量来感受某种东西”(同上,第 150 页;另见 Tononi 和 Koch 2015,第 16 页,脚注。15)。我们的论点至少在两个方面比这更激进。首先,我们的论证意味着,即使是“神经形态”数字机器也可能无法实现连贯的宏观现象意识——因为这样的机器可能仍然无法以一种将基本现象品质组合成连贯的宏观现象流形所必需的方式操纵基本微观物理学。其次,正如我们在第 4 节中解释的那样,我们的论证意味着 IIT 本身可能是错误的。如果我们是正确的,那么人工智能拥有连贯的宏观现象意识的唯一方法可能是让它们成为以正确方式整合基本微观物理现象量的模拟机器。
也非常明确地希望找到组合问题的解决方案。然而,目前尚不清楚这样的科学是否可能,或者如果可能的话会取得什么成就。我采用了另一种激进的泛心论,即 Fields、Glazebrook 和 Levin (2021) 的最小物理主义 (MP),与 Goff 探索这些问题的方法形成对比。虽然 Goff 的泛心论从根本上讲是本体论的,并且基于物质性,但 MP 从根本上讲是功能性的,并且基于将物理交互描述为信息交换 (Fields、Glazebrook 和 Marcianò,2021)。由于 MP 采用数学形式,即量子信息论,因此在 Goff 的意义上它是伽利略式的。由于它将意识的内容表示为受定量物理约束的约束,因此它具有相当大的预测能力。然而,它对感质本身没有任何预测,并且如下所述,它将大多数版本的组合问题视为不适定的。
在本文中,我将研究我们是否有理由将意识归因于人工智能系统。首先,我将简要介绍人工智能 (AI) 的概念历史,并明确我将使用的术语。其次,我将简要回顾当今提供的 AI 程序类型,确定我认为哪种研究程序为机器意识提供了最佳候选。最后,我将考虑三种最合理的方法来了解机器是否有意识:(1) AI 表现出与人类思想者组织相似性足够高,(2) 推断出最佳解释,以及 (3) 我所说的“泛心论”,即如果一切都是有意识的,那么我们可以免费在 AI 中获得机器意识。然而,我认为这三种归因于机器意识的方法都是不充分的,因为它们各自都面临着严重的哲学问题,我将对这些问题进行调查并针对每种方法进行专门定制。