Loading...
机构名称:
¥ 1.0

大型语言模型 (LLM) 的出现彻底改变了用户访问信息的方式,从传统的搜索引擎转向使用 LLM 进行直接问答交互。然而,LLM 的广泛采用也暴露出一个重大挑战,即幻觉,即 LLM 生成的响应连贯但事实不准确。这种幻觉现象导致用户不信任基于 LLM 的信息检索系统。为了应对这一挑战,本文提出了基于幻觉检测的动态检索增强 (DRAD),作为一种检测和缓解 LLM 中幻觉的新方法。DRAD 通过基于实时幻觉检测动态调整检索过程,改进了传统的检索增强。它有两个主要组件:实时幻觉检测 (RHD),用于在没有外部模型的情况下识别潜在幻觉;基于外部知识的自我校正 (SEK),用于使用外部知识纠正这些错误。实验结果表明,DRAD 在检测和缓解 LLM 中的幻觉方面表现出色。我们所有的代码和数据都是开源的,网址为 https://github.com/oneal2000/EntityHallucination。

减轻大型语言模型中的实体级幻觉

减轻大型语言模型中的实体级幻觉PDF文件第1页

减轻大型语言模型中的实体级幻觉PDF文件第2页

减轻大型语言模型中的实体级幻觉PDF文件第3页

减轻大型语言模型中的实体级幻觉PDF文件第4页

减轻大型语言模型中的实体级幻觉PDF文件第5页

相关文件推荐