详细内容或原文请订阅后点击阅览
科学家警告说,大型语言模型不适合现实世界使用——即使是微小的变化也会导致他们的世界模型崩溃
一项新研究发现,大型语言模型人工智能表面上看起来很聪明,但它们很难真正理解现实世界并对其进行准确建模。
来源:LiveScience生成式人工智能 (AI) 系统可能能够产生一些令人大开眼界的结果,但新的研究表明,它们对世界和真实规则没有连贯的理解。
人工智能 人工智能在一项发表在 arXiv 预印本数据库的新研究中,麻省理工学院、哈佛大学和康奈尔大学的科学家发现,大型语言模型 (LLM),如 GPT-4 或 Anthropic 的 Claude 3 Opus,无法生成准确表示现实世界的底层模型。
一项新研究 一项新研究 GPT-4 GPT-4 Claude 3 Opus Claude 3 Opus例如,当负责提供纽约市的逐向驾驶路线时,法学硕士的准确率接近 100%。但当科学家提取这些路线时,所使用的底层地图上充满了不存在的街道和路线。
研究人员发现,当指令中添加意外变化(例如绕行和封闭街道)时,法学硕士给出的方向的准确性会急剧下降。在某些情况下,这会导致彻底失败。因此,这引发了人们的担忧,即在现实世界中部署的人工智能系统(例如无人驾驶汽车)在面对动态环境或任务时可能会出现故障。
相关:人工智能“可以阻碍独立自我创造所需的技能”:依靠算法可能会在你不知情的情况下重塑你的整个身份
相关: 人工智能“可以阻碍独立自我创造所需的技能”:依靠算法可能会在你不知情的情况下重塑你的整个身份 人工智能“可以阻碍独立自我创造所需的技能”:依靠算法可能会在你不知情的情况下重塑你的整个身份 人工智能“可以阻碍独立自我创造所需的技能”:依靠算法可能会在你不知情的情况下重塑你的整个身份 Ashesh Rambachan Ashesh Rambachan 声明 声明