尽管本书许多部分的讨论可能相当复杂,但总体论点却相当简单:我们设计的任何东西(计算机或任何其他机器)最终都必须是一个可以用数学建模的系统。也就是说,我们设计的任何引擎最终都是一个逻辑系统,可以用我们可用的数学进行形式建模和描述。然而,正如 L&S 所说,思维不是一个逻辑系统,而是一个动态复杂系统,任何已知的数学都无法建模或描述。L&S 拒绝身心二元性,并认为心理过程本身就是物理过程。此外,对这些心理过程进行建模的复杂性不仅仅是它们复杂的时间或随机行为的函数;而是由于这些过程是动态的、自适应的、不断发展的,并且构成了系统,其行为影响着它们所处的环境,也受其影响。根据 L&S 的说法,这是现代机器学习技术的局限性的根源:虽然人们可以在一组输入输出对上“训练”深度网络,但在任何狭窄的领域之外,没有任何一组训练数据可以充分预测未来的环境,因为该环境本身的状态
摘要:大脑真的是一台计算机吗?具体来说,我们的智力是一种计算成就吗:是不是因为我们的大脑是计算机,所以我们才能在世界上表现得如此出色?在本文中,我将评估 Landgrebe 和 Smith (2021a, 2022) 提出的一个雄心勃勃的相反新论点。Landgrebe 和 Smith 从这样一个事实开始:世界上许多动态系统都难以或不可能准确建模(尤其是因为很难找到描述它们的微分方程的精确解——这意味着我们必须近似——但同时,起始条件的微小差异会导致最终条件的巨大差异,从而阻碍精确近似)。然而,我们设法在一个充满此类系统的世界中生存和发展。 Landgrebe 和 Smith 从这些前提出发,认为我们之所以能如此优秀,并不是因为我们的大脑是计算机,而是因为我们以各种方式与这些系统动态耦合,而这些耦合本身不可能很好地建模以在计算机中模拟。因此,Landgrebe 和 Smith 捍卫了 Gibson (1979)、Van Gelder (1995) 和 Thompson (2007) 的动态系统模型,尽管他们的重点是果断驳斥计算主义的替代方案,而不是发展积极的解释。在这里,我将针对这一论点捍卫人类智能是真正的计算型智能(并且全脑模拟和其他形式的 AGI 都是可能的)这一说法。
人工智能 (AI) 的发展重新开启并重新构建了许多传统的哲学问题,例如什么是理性、推理或自由意志,或者作为人类意味着什么。随着 ChatGPT 技术的最新发展,这些问题涉及公共空间,并引发了一场讨论,特别是关于对话式和生成式人工智能与人类相比的推理能力及其在我们的理性话语中的作用。这些讨论与人工智能生成 (GAI) 的可能性这一主题密切相关。Landgrebe 和 Smith (2022) 最近出版的一本书提出了令人信服的论据,反对 GAI 的可能性以及机器掌握人类语言、社交互动和道德的能力。尽管有这些论点,但人类的想象力方面仍存在一个问题,即感知超出现有的东西,并将人工智能视为人类和社会行为者 (Banks 2019;Nass and Moon 2000),而不管其实际属性和能力或缺乏这些属性和能力。数学和本体论的论证无助于阻止人类将对话式人工智能 (CAI) 视为人类的强烈倾向。CAI 的开发目标是使其看起来像人类,这一事实进一步强化了这种倾向。其结果可能是,从现象学层面和实用主义的角度讲,尽管人工智能缺乏人类属性,但可以承认它掌握了语言,进入了我们的话语实践并成为社会参与者。也许,这是我们在当前版本的 ChatGPT 中已经看到的东西。我认为这种现象需要认真对待。