详细内容或原文请订阅后点击阅览
这家初创公司的新机械解释工具可让您调试 LLM
总部位于旧金山的初创公司 Goodfire 刚刚发布了一款名为 Silico 的新工具,它可以让研究人员和工程师在训练期间查看 AI 模型内部并调整其参数(决定模型行为的设置)。 This could give model makers more fine-grained control over how this technology is built than was once thought possible. Goodfire 声称 Silico...
来源:MIT Technology Review _人工智能该公司表示,其使命是让构建人工智能模型不再像炼金术,而更像一门科学。当然,像 ChatGPT 和 Gemini 这样的法学硕士可以做出惊人的事情。但没有人确切知道它们是如何或为何工作的,这使得修复它们的缺陷或阻止不良行为变得困难。
“我们看到模型的理解程度和模型的部署范围之间的差距越来越大,”Goodfire 的首席执行官 Eric Ho 在 Silico 发布之前的独家聊天中告诉《麻省理工科技评论》。 “我认为当今每个主要前沿实验室的主导感觉是,你只需要更大的规模、更多的计算、更多的数据,然后你就可以获得 AGI(通用人工智能),其他都不重要。我们说不,有更好的方法。”
Goodfire 是少数几家公司之一,其中包括行业领导者 Anthropic、OpenAI 和 Google DeepMind,它们开创了一种称为机械可解释性的技术,该技术旨在通过映射神经元及其之间的路径来了解 AI 模型在执行任务时内部发生的情况。 (《麻省理工学院技术评论》将机械解释性列为 2026 年 10 项突破性技术之一。)
Goodfire 不仅希望使用这种方法来审核模型(即研究那些已经经过训练的模型),而且还希望首先帮助设计它们。
“我们希望消除反复试验,将训练模型转变为精密工程,”Ho 说。 “这意味着暴露旋钮和转盘,以便您可以在训练过程中实际使用它们。”
Goodfire 已经使用其技术和工具来调整法学硕士的行为,例如减少他们产生幻觉的数量。通过 Silico,该公司现在正在打包许多内部技术并将其作为产品进行运输。
