详细内容或原文请订阅后点击阅览
引用工具为可信的 AI 生成内容提供了一种新方法
研究人员开发了“ContextCite”,这是一种跟踪 AI 来源归属并检测潜在错误信息的创新方法。
来源:MIT新闻 - 人工智能聊天机器人可以扮演很多角色:词典、治疗师、诗人、无所不知的朋友。为这些系统提供支持的人工智能模型在提供答案、澄清概念和提炼信息方面似乎非常熟练和高效。但要确定此类模型生成的内容的可信度,我们如何才能真正知道某个陈述是事实、幻觉还是纯粹的误解?
在许多情况下,人工智能系统会收集外部信息以用作回答特定查询时的上下文。例如,为了回答有关医疗状况的问题,系统可能会参考有关该主题的最新研究论文。即使有这种相关的背景,模型也可能会在感觉信心十足的情况下犯错。当模型出错时,我们如何从它所依赖的上下文(或缺乏上下文)中追踪该特定信息?
为了解决这一障碍,麻省理工学院计算机科学与人工智能实验室 (CSAIL) 的研究人员创建了 ContextCite,这是一种可以识别用于生成任何特定语句的外部上下文部分的工具,通过帮助用户轻松验证语句来提高信任度。
ContextCite当用户查询模型时,ContextCite 会突出显示 AI 依赖的外部上下文中的特定来源。 如果 AI 生成不准确的事实,用户可以将错误追溯到其原始来源并了解模型的推理。 如果 AI 产生幻觉答案,ContextCite 可以指出该信息根本不来自任何真实来源。 您可以想象,这样的工具在需要高水平准确性的行业(例如医疗保健、法律和教育)中尤其有价值。
ContextCite 背后的科学:上下文消融
ContextCite 背后的科学:上下文消融应用:修剪不相关的上下文并检测中毒攻击
应用:修剪不相关的上下文并检测中毒攻击