详细内容或原文请订阅后点击阅览
使验证 AI 模型的响应变得更容易
Wes Cockx 和 Google DeepMind / Better Images of AI / AI 大型语言模型 / 由 Adam Zewe 授权 CC-BY 4.0 尽管大型语言模型功能强大,但它们远非完美。这些人工智能模型有时会“产生幻觉”,在响应查询时生成不正确或不受支持的信息。由于这种幻觉 […]
来源:ΑΙhubWes Cockx 和 Google DeepMind / Better Images of AI / AI 大型语言模型 / CC-BY 4.0 许可
Wes Cockx 和 Google DeepMind / Better Images of AI / AI 大型语言模型 / CC-BY 4.0 许可 Wes Cockx Google DeepMind Better Images of AI CC-BY 4.0 许可作者:Adam Zewe
作者:Adam Zewe尽管大型语言模型功能强大,但远非完美。这些人工智能模型有时会“产生幻觉”,在响应查询时生成不正确或不受支持的信息。
由于这种幻觉问题,LLM 的回答通常由人工事实核查员进行验证,尤其是当模型部署在医疗保健或金融等高风险环境中时。然而,验证过程通常需要人们通读模型引用的长篇文档,这项任务非常繁重且容易出错,可能会阻止一些用户首先部署生成式 AI 模型。
生成式 AI 模型为了帮助人类验证者,麻省理工学院的研究人员创建了一个用户友好的系统,使人们能够更快地验证 LLM 的回答。使用这个名为 SymGen 的工具,LLM 可以生成带有引文的响应,这些引文直接指向源文档中的位置,例如数据库中的给定单元格。
SymGen用户将鼠标悬停在其文本响应的突出显示部分上,以查看模型用于生成该特定单词或短语的数据。同时,未突出显示的部分向用户显示哪些短语需要额外注意检查和验证。
“我们让人们能够有选择地关注他们需要更加担心的文本部分。最后,SymGen 可以让人们对模型的响应更有信心,因为他们可以轻松地仔细查看以确保信息得到验证,”电气工程和计算机科学研究生、SymGen 论文的共同主要作者 Shannon Shen 说。
关于 SymGen 的论文符号引用
简化验证
阅读全文
MIT 新闻