Error 500 (Server Error)!!1500.That’s an error.There was an error. Please try again later.That’s all we know.

作者:Ed Walters,Clio 法律创新+战略副总裁。律师事务所和法律科技公司在2025年花费了大量时间研究和...

来源:Artificial Lawyer

作者:Ed Walters,Clio 法律创新+战略副总裁。

律师事务所和法律科技公司在 2025 年花费了大量时间研究和更新 OpenAI、Google、Anthropic 等公司的最新 AI 基础模型,试图挤出更好的推理或写作能力。这是可以理解的——每个人都希望比竞争对手拥有更好的能力。尽管人工智能科技公司将在 2026 年继续竞相开发最新模型,但法律科技公司将在不同的竞赛中分头进行:完成上下文的竞赛。

随着基础模型在处理更复杂的任务方面变得越来越有能力,法律人工智能的真正差异化因素将是上下文。这可能是基于权威的、现行的、全球法律的背景。或者它可能是专家法律架构师提供的背景。它可以是有关客户的背景信息,也可以是当前的具体事项。或者它可以是从文档管理档案中精心挑选的模板库、清单和手册。但总体背景可能需要所有这些的某种组合。

2026 年,合法人工智能和基础模型之间的第二个主要区别将是合法人工智能的信任中心地位。合法的人工智能仅以法律为基础是不够的。律师事务所及其客户将要求法律工作的透明度和审计跟踪,以建立对基础材料真实性的信任。毕竟,如果我们看不到、验证和信任潜在的法律依据,我们怎么能相信人工智能工具的分析呢?

人工验证仍将是合法人工智能的重要要求。这意味着人工智能系统的构建必须以透明度为首要,我们有时称之为“信任架构”。

这就是法律开始与更广泛的人工智能市场产生分歧的地方。虽然通用模型针对流畅性和广泛的知识进行了优化,但法律工作需要不同的东西:透明度、基础、可审计性和背景:信任的架构,而不是技能的架构。