AI聊天机器人过分简化了科学研究和关键细节上的光泽 - 最新的模型尤其有罪

更高级的AI聊天机器人更有可能过度简化复杂的科学发现,以解释培训的数据。

来源:LiveScience

大型语言模型(LLMS)在每个新版本过于简化时变得越来越“智能”,在某些情况下,一项新的研究发现了一项新的研究。

科学家发现,在分析4,900个研究论文摘要中,Chatgpt,Llama和Deepseek的版本比人类专家的五倍超过了科学发现的可能性要高出五倍。

给出准确性的提示,聊天机器人的发现可能是提示简单摘要的可能性的两倍。该测试还表明,与前几代人相比,新聊天机器人版本之间的概括性增加了。

研究人员在4月30日在《皇家学会公开科学》杂志上发表的一项新研究中发表了他们的发现。

皇家学会开放科学

“我认为最大的挑战之一是,在您意识到它改变了原始研究的含义之前,概括似乎可以良性,甚至有帮助。 “我们在这里添加的是一种系统的方法,用于检测模型超出原始文本所保证的内容时。”

uwe Peters

这就像具有破碎镜头的复印机,使后续副本比原始副本更大,更大胆。 LLMS通过一系列计算层过滤信息。一路上,某些信息可能会丢失或以微妙的方式改变含义。科学研究尤其如此,因为科学家必须经常在其研究结果中包含资格,背景和局限性。提供简单而准确的发现摘要变得非常困难。

“较早的LLM更有可能避免回答困难的问题,而新的,更大,更具指导性的模型,而不是拒绝回答,而是经常产生误导性的权威但有缺陷的回答,”研究人员写道。

相关:

不安全的治疗选择

最大滚动