科学家警告说,大型语言模型不适合现实世界使用——即使是微小的变化也会导致他们的世界模型崩溃

一项新研究发现,大型语言模型人工智能表面上看起来很聪明,但它们很难真正理解现实世界并对其进行准确建模。

来源:LiveScience

生成式人工智能 (AI) 系统可能能够产生一些令人大开眼界的结果,但新的研究表明,它们对世界和真实规则没有连贯的理解。

人工智能 人工智能

在一项发表在 arXiv 预印本数据库的新研究中,麻省理工学院、哈佛大学和康奈尔大学的科学家发现,大型语言模型 (LLM),如 GPT-4 或 Anthropic 的 Claude 3 Opus,无法生成准确表示现实世界的底层模型。

一项新研究 一项新研究 GPT-4 GPT-4 Claude 3 Opus Claude 3 Opus

例如,当负责提供纽约市的逐向驾驶路线时,法学硕士的准确率接近 100%。但当科学家提取这些路线时,所使用的底层地图上充满了不存在的街道和路线。

研究人员发现,当指令中添加意外变化(例如绕行和封闭街道)时,法学硕士给出的方向的准确性会急剧下降。在某些情况下,这会导致彻底失败。因此,这引发了人们的担忧,即在现实世界中部署的人工智能系统(例如无人驾驶汽车)在面对动态环境或任务时可能会出现故障。

相关:人工智能“可以阻碍独立自我创造所需的技能”:依靠算法可能会在你不知情的情况下重塑你的整个身份

相关: 人工智能“可以阻碍独立自我创造所需的技能”:依靠算法可能会在你不知情的情况下重塑你的整个身份 人工智能“可以阻碍独立自我创造所需的技能”:依靠算法可能会在你不知情的情况下重塑你的整个身份 人工智能“可以阻碍独立自我创造所需的技能”:依靠算法可能会在你不知情的情况下重塑你的整个身份 Ashesh Rambachan Ashesh Rambachan 声明 声明

棘手的变压器

变压器模型 变压器模型
将世界上最迷人的发现直接发送到您的收件箱。

依赖法学硕士是冒险的生意