详细内容或原文请订阅后点击阅览
AI推理模型并不像破解的那样聪明。
Apple的一项新研究通过显示推理模型在与复杂问题过载时如何经历“完全准确性崩溃”,引发了AI领域的争议。
来源:LiveScience人工智能(AI)推理模型并不像所用的那样聪明。苹果的研究人员说,实际上,它们实际上根本没有理由。
推理模型,例如Meta的Claude,OpenAI的O3和DeepSeek的R1,是专门的大型语言模型(LLMS),它专门投入更多的时间和计算能力来产生比传统前辈更准确的响应。
更准确的响应这些模型的兴起导致大型科技公司的重新主张,即他们可能会以人工通用情报(AGI)(AGI)开发机器的边缘,这是在大多数任务上都表现优于人类的系统。
更新索赔 人工通用情报但6月7日在苹果机器学习研究网站上发表的一项新研究通过对公司的竞争对手造成了重大打击的回应。科学家在研究中说,推理模型不仅不表现出广泛的推理,因此,当任务变得太复杂时,其准确性就完全崩溃了。
苹果的机器学习研究网站“通过跨不同难题的广泛实验,我们表明Frontier LRMS在某些复杂性之外面临着完全准确的崩溃,”研究人员在研究中写道。 “此外,他们表现出违反直觉的限制:他们的推理工作随着问题的复杂性而增加,然后尽管预算有足够的预算,但仍会下降。”
llms通过从大量人类产出中吸收培训数据而成长和学习。利用这些数据使模型可以通过在提示提示时向前喂养神经网络来生成概率模式。
相关:ai不断地'幻觉',但是有一个解决方案
相关: ai“幻觉”不断,但是有一个解决方案