详细内容或原文请订阅后点击阅览
合约人工智能的可靠性问题:当人工智能出错时
作者:Pedram Abrari,Pramata 首席技术官。这是我们由三部分组成的系列文章中的第二篇文章,探讨为什么将合约加载到大型语言模型中并不是一种有效的方法......
来源:Artificial Lawyer作者:Pedram Abrari,Pramata 首席技术官。
这是我们由三部分组成的系列文章中的第二篇文章,探讨了为什么将合约加载到大型语言模型中并不是实现准确合约智能的有效方法。我们将深入探讨其中的原因,以及为什么法律团队需要合同人工智能来解决在合同中使用生成人工智能的九大技术挑战。
在本系列的第一篇博客中,我们介绍了阻止“合约 GPT”在企业环境中工作的基本挑战:传统 RAG 系统的安全风险、数据质量问题以及上下文窗口管理的复杂性。这些挑战往往会在人工智能实施之前就阻止它们的实施。
虽然很重要,但到目前为止,前三个技术挑战还不是故事的结局。在本文中,我们将探讨接下来的三个挑战,这些挑战可以概括为可靠性问题。了解人工智能为何经常出错,以及适当的技术创新如何解决这些问题。
合约AI挑战4:AI幻觉
如果您使用过一种公开的大型语言模型,您可能已经亲身经历过人工智能“幻觉”。这时人工智能就会自信地提供完全错误的信息。在随意的谈话中,出现幻觉可能会很有趣。在商业和法律工作的背景下,它们是有风险的,并且可能是灾难性的。
当您尝试使用 AI 进行合同创建、修订、管理或分析时,可能会出现幻觉的几种方式包括:
- 完全虚构的合同条款各方之间的责任混合虚幻的日期和数字,包括续订截止日期、付款金额或绩效指标虚假引用和交叉引用
