为什么法律人工智能总是弄错语境

作者:Electra Japonas,CPO,SimpleDocs。法律团队体验人工智能工具的方式正在出现一种模式,值得直接命名。 ...

来源:Artificial Lawyer

作者:Electra Japonas,CPO,SimpleDocs。

法律团队体验人工智能工具的方式正在出现一种模式,值得直接命名。

输出流畅。速度是真实的。然而有些事情却始终不正常。感觉在商业上充耳不闻的职位。没有合理的交易对手会接受的建议语言。红线没有抓住组织真正关心的重点。

本能地责怪模型。假设技术还不够好,或者法律工作过于微妙,人工智能无法以任何有意义的方式提供支持。这两种解释都不完全正确。

问题不在于智力。这是上下文。

人工智能实际需要什么

当律师审阅合同时,他们并不是从一张白纸开始工作。他们正在利用积累的知识:他们的组织之前同意了什么,他们准备捍卫什么立场,市场通常对特定条款的看法,以及这项具体交易想要实现的目标。

这些知识都不是明确的。但它存在于熟练律师所做的每一个决定中。它决定了他们标记什么、放弃什么以及他们如何制定谈判立场。

人工智能模型经过广泛的法律语言语料库的训练,可以相当准确地将训练应用于一般任务。如果没有正确的输入,他们就无法复制嵌入的组织和市场知识,从而做出适合具体情况的法律决策。

结果是法律上一致但上下文不可靠的输出。对于您面前的交易来说,技术上是站得住脚的,但商业上是错误的。

这不是底层技术的缺陷。这是技术部署方式上的差距。

重要的上下文层次

法律工作中的背景在几个不同的层面上运作,可靠的人工智能系统需要访问所有这些层面。

“只需上传一些合约”问题

企业问题是系统问题

其中之一是工具。另一个是基础设施。