理解某件事意味着什么?这个问题长期以来一直困扰着哲学家、认知科学家和教育家,他们几乎总是与人类和其他动物有关。然而,随着最近大规模人工智能系统的兴起——尤其是所谓的大型语言模型——人工智能界出现了一场激烈的争论,即现在是否可以说机器理解自然语言,从而理解语言可以描述的物理和社会情况。这场争论不仅仅是学术性的;机器理解我们世界的程度和方式,对我们能多大程度地信任它们驾驶汽车、诊断疾病、照顾老人、教育儿童以及更广泛地在影响人类的任务中表现出稳健和透明的行为有着真正的利害关系。此外,当前的争论表明,在如何思考智能系统的理解方面存在着有趣的分歧,特别是依赖统计相关性的心理模型和依赖因果机制的心理模型之间的对比。直到最近,人工智能研究界对机器理解达成了普遍共识:虽然人工智能系统在许多特定任务中表现出看似智能的行为,但它们并不像人类那样理解它们处理的数据。面部识别软件不理解面部是身体的一部分,不理解面部表情在社交互动中的作用,“面对”不愉快的情况意味着什么,也不理解人类对面部概念化的其他无数方式。同样,语音转文本和机器翻译程序不理解它们处理的语言,自动驾驶系统不理解司机和行人用来避免事故的微妙眼神接触或肢体语言的含义。事实上,这些人工智能系统经常被提及的脆弱性——它们不可预测的错误和缺乏强大的泛化能力——是它们缺乏理解的关键指标 (1)。然而,在过去几年里,一种新型人工智能系统大受欢迎
主要关键词