三星小型AI模型TRM挑战更大的LLM模型

三星研究人员开发了一种名为 TRM(微小递归模型)的新型开放推理模型,该模型在特定问题上的性能比其他模型大 10,000 倍。基于递归推理的模型表明,小型网络无需在 GPU 和功耗上进行大量投资即可实现高性能。 TRM 是 MIT 许可下的开源代码,并且 [...] 三星的小型 AI 模型 TRM 挑战更大的 LLM 模型,首次出现在 AI News 上。

来源:AI新闻
TRM 是一个小型 AI 模型,只有 700 万个参数,在复杂推理任务上超过了较大的语言模型。该模型使用递归方法,网络通过最多 16 次重复迭代完善其答案。该模型的性能明显优于 DEEPSEEK R1 和 Gemini 2.5 PRO 等大型语言模型。机器人和个人数据处理。基于递归推理的模型表明,小型网络无需在 GPU 和功耗上进行大量投资即可实现高性能。 TrM 是 MIT 许可下的开源代码,专为结构化、视觉和基于网格的问题而设计,挑战了人工智能研究中“规模就是所需要的一切”的主导理念。需要大量的计算资源。每个任务的递归循环最多运行 16 次,这意味着模型可以做出越来越准确的预测——有点像大型语言模型如何使用逐步推理,尽管这里是通过狭窄、有效的设计来实现的。锻炼成本低于500美元另一个有趣的细节是TRM的培训成本低于500美元。这与花费数十亿美元用于训练最大的语言模型形成鲜明对比。结果表明,通过设计能够迭代推理和自我修正的架构,可以用一小部分计算资源解决极其困难的问题。研究论文和代码可在 Github 上公开获取,供那些想要进一步实验的人使用。这可以为更多研究小型、有效的模型打开大门,这些模型可以在有限制的设备上运行