减少生产法学硕士中幻觉的 7 种方法

大多数 LLM 幻觉修复都会失败。这是在生产中实际起作用的。

来源:KDnuggets

简介

幻觉不仅仅是模型问题。在生产中,它们是一个系统设计问题。最可靠的团队通过将模型基于可信数据、强制可追溯性以及通过自动检查和持续评估来控制输出来减少幻觉。

在本文中,我们将介绍开发人员和 AI 团队目前正在使用的七种经过验证和现场测试的策略,以减少大型语言模型 (LLM) 应用程序中的幻觉。

1. 使用检索增强生成的基础响应

如果您的应用程序必须在内部策略、产品规格或客户数据方面正确无误,请不要让模型凭记忆回答。使用检索增强生成 (RAG) 检索相关来源(例如文档、票证、知识库文章或数据库记录)并根据特定上下文生成响应。

例如:

  • 用户询问:“我们的包年套餐退款政策是什么?”
  • 您的系统检索当前策略页面并将其注入提示符
  • 助理回答并引用所使用的确切子句
  • 2. 要求引用关键声明

    很多制作助理使用的一个简单的操作规则是:没有来源,就没有答案。

    Anthropic 的护栏指南明确建议通过要求引用来使输出可审计,并让模型通过查找支持引用来验证每个声明,撤回任何它无法支持的声明。这种简单的技术可以显着减少幻觉。

  • 对于每个事实项目符号,模型必须附加检索到的上下文中的引用
  • 如果找不到报价,则必须回复“我在提供的来源中没有足够的信息”
  • 3. 使用工具调用而不是自由格式答案

    对于事务或事实查询,最安全的模式是:LLM — 工具/API — 经验证的记录系统 — 响应。

  • 定价:查询计费数据库
  • 工单状态:调用内部客户关系管理 (CRM) 应用程序编程接口 (API)
  • 策略规则:获取版本控制的策略文件
  • 生成答案
  • 总结