AI如何将错误引入法庭

在法庭上有关AI的故事已经有很多星期了。您可能已经听说过一场公路愤怒事件的已故受害者,该事件的一家人创造了他的AI头像作为影响声明(可能是在美国第一次进行)。但是有一个更大的……

来源:MIT Technology Review _人工智能

上周,另一位总部位于加利福尼亚的法官在法庭文件中抓住了另一个幻觉,这次是AI公司人类人类在诉讼中提交的唱片公司在版权问题上对其提出的诉讼。 Anthropic的一位律师要求该公司的AI模型Claude为法律文章创建引用,但克劳德(Claude)包括错误的头衔和作者。 Anthropic的律师承认,任何人审查该文件的人都没有抓住这个错误。

最后,也许最令人担忧的是以色列正在发生的案例。警方以洗钱罪逮捕了一个人后,以色列检察官提出了一项要求,要求法官允许允许将个人的电话作为证据。但是他们列举了不存在的法律,促使被告的律师指责他们在要求中包括AI幻觉。根据以色列新闻媒体的说法,检察官承认事实是,法官受到责骂。

新闻媒体

在一起,这些案例指出了一个严重的问题。法院依靠准确并获得引用的文件,这是AI模型的两个特征,尽管律师渴望节省时间,但通常会惨败。

这些错误已经被抓住了(目前),但是想象很快在某个时候,法官的决定将受到AI完全构成的东西的影响,没有人会抓住它。

我与毛拉·格罗斯曼(Maura Grossman)进行了交谈,后者在滑铁卢大学的计算机科学学院以及奥斯古德·霍尔法学院(Osgoode Hall Law School)教授,并且一直是对AI为法院构成的问题的声音早期批评。她在2023年就撰写了有关问题的文章,当时第一次幻觉开始出现。她说,她认为法院的现有规则要求律师审核他们向法院提交的内容,以及这些案件所吸引的不良宣传,这将阻止问题。那还没有淘汰。

录取