详细内容或原文请订阅后点击阅览
为什么法律人工智能总是弄错语境
作者:Electra Japonas,CPO,SimpleDocs。法律团队体验人工智能工具的方式正在出现一种模式,值得直接命名。 ...
来源:Artificial Lawyer作者:Electra Japonas,CPO,SimpleDocs。
法律团队体验人工智能工具的方式正在出现一种模式,值得直接命名。
输出流畅。速度是真实的。然而有些事情却始终不正常。感觉在商业上充耳不闻的职位。没有合理的交易对手会接受的建议语言。红线没有抓住组织真正关心的重点。
本能地责怪模型。假设技术还不够好,或者法律工作过于微妙,人工智能无法以任何有意义的方式提供支持。这两种解释都不完全正确。
问题不在于智力。这是上下文。
人工智能实际需要什么
当律师审阅合同时,他们并不是从一张白纸开始工作。他们正在利用积累的知识:他们的组织之前同意了什么,他们准备捍卫什么立场,市场通常对特定条款的看法,以及这项具体交易想要实现的目标。
这些知识都不是明确的。但它存在于熟练律师所做的每一个决定中。它决定了他们标记什么、放弃什么以及他们如何制定谈判立场。
人工智能模型经过广泛的法律语言语料库的训练,可以相当准确地将训练应用于一般任务。如果没有正确的输入,他们就无法复制嵌入的组织和市场知识,从而做出适合具体情况的法律决策。
结果是法律上一致但上下文不可靠的输出。对于您面前的交易来说,技术上是站得住脚的,但商业上是错误的。
这不是底层技术的缺陷。这是技术部署方式上的差距。
重要的上下文层次
法律工作中的背景在几个不同的层面上运作,可靠的人工智能系统需要访问所有这些层面。
“只需上传一些合约”问题
企业问题是系统问题
其中之一是工具。另一个是基础设施。
—
