详细内容或原文请订阅后点击阅览
尽管生成式人工智能的输出令人印象深刻,但它对世界的理解并不连贯
研究人员表明,即使是表现最好的大型语言模型也无法形成真正的世界及其规则模型,因此可能会在类似任务上意外失败。
来源:MIT新闻 - 人工智能大型语言模型可以做令人印象深刻的事情,例如写诗歌或生成可行的计算机程序,即使这些模型经过训练以预测文本中下一步出现的单词。
如此令人惊讶的功能可以使模型似乎正在隐含地学习有关世界的一些一般真理。
,但不一定是这种情况。研究人员发现,一种流行的生成AI模型可以以近乎完美的精度在纽约市提供转弯的行驶指示 - 而不会形成准确的城市内部地图。
生成AI模型尽管该模型具有不可思议的有效导航的能力,但当研究人员关闭了一些街道并增加了弯路时,其性能就会暴跌。
更深入地挖了他们时,研究人员发现纽约地图隐含地生成的模型有许多不存在的街道在网格和连接遥远的交叉点之间弯曲。
这可能对现实世界中部署的生成AI模型具有严重的影响,因为如果任务或环境略有变化,似乎在一种情况下表现良好的模型可能会崩溃。
“一个希望是,因为LLM可以用语言完成所有这些令人惊奇的事情,因此我们也可以在科学的其他部分中使用这些相同的工具。但是,如果我们想使用这些技术来做出新发现,那么LLM是否正在学习连贯的世界模型的问题非常重要。
关于工作的论文新指标
研究人员专注于一种被称为变压器的生成AI模型,该模型形成了LLM的骨干,例如GPT-4。对变压器进行了大量基于语言的数据的培训,以预测顺序的下一个令牌,例如句子中的下一个单词。
不连贯的世界模型