详细内容或原文请订阅后点击阅览
当合法人工智能听起来正确但跨国界失败时
作者:Michael Krallmann,TransLegal 首席执行官。法律人工智能已经达到了令人不安的成熟阶段。一方面,输出具有表面可信度,读得好,遵循......
来源:Artificial Lawyer作者:Michael Krallmann,TransLegal 首席执行官。
法律人工智能已经达到了令人不安的成熟阶段。一方面,产出具有表面可信度、易于阅读、遵循律师熟悉的结构并且经常引用法规和案例。与此同时,准确性可能很差,这一问题在跨境背景下会加剧几个数量级。
在多语言或多司法管辖区的背景下,法律错误很少会明确地表明出来。相反,它们被表面光泽所掩盖:翻译后的条款感觉很准确;听起来很熟悉的定义;一个看似合理的比较解释。危险不在于明显的错误,而在于答案几乎正确,但不完全正确。
超越幻觉——等价问题
基金会模型非常擅长生成相关概念的主要英语框架,但在识别来自另一个司法管辖区的术语与该框架不完全一致、仅部分一致或在一种法律背景下而不是在另一种法律背景下一致时,就不太可靠。输出读起来很好,因为语言很流畅,但表面光泽隐藏了一个等价问题。缺少的不是语言能力,而是对法律(非)对等的理解。
这个问题被底层模型架构放大了。法律科技工具可能依赖于带有少量提示或界面逻辑的大型通用模型。有些甚至可能增加从本地来源的检索,但这本身并不能克服概念分歧。如果底层模型不理解跨系统的法律概念之间的差异,它就无法可靠地表示不确定性、解释局限性或提出准确的建议。相反,它将充满信心地填补知识空白。
隐形风险
尽早认识到这一挑战的组织将拥有优势。不是作为先行者,而是因为他们更清楚地了解人工智能辅助工作流程中实际出现法律风险的位置。
寻求解决方案
–
关于作者
—
