详细内容或原文请订阅后点击阅览
律师已经引用了假AI生成的案件,这已成为一个问题
数百万年前,大西洋分裂了这些大陆,但在恐龙走过它们之前就不会。
来源:ZME科学高等法院大法官维多利亚·夏普(Victoria Sharp)一定有一个非常奇怪的一天。在审查律师提出的案例引用时,她意识到了一些令人震惊的事情:其中许多根本不存在。
看来,律师已经转向了生成的AI进行研究,并且经常发生AI幻觉和捏造的案例法。监督英国备受瞩目的民事案件的高等法院警告说,援引不存在的案件可能会导致法院甚至刑事指控。但这不太可能阻止AI在法律实践中的不断增长。
幻影案例
很容易用AI用AI欺骗家庭作业的学生,但是这种趋势已经渗入了专业的法律界。在2023年的英国税务法庭中,上诉人将九个虚假案件作为“先例”。当发现这些案件不是真实的时,她承认她使用了Chatgpt“有可能”。在纽约的另一个2023年案件中,当律师受到挑战以提出他所引用的虚拟案件时,法院陷入混乱。
挑战生产快进到最近的9000万英镑(1.2亿美元)涉及卡塔尔国家银行的诉讼,在那里进行了45个判例法,其中18个被证明是假的。其他几个则带有捏造的名言。索赔人承认使用公开可用的AI工具进行合法制图。
AI工具在另一个案例中,一个法律中心就未能提供临时住房的伦敦自治市镇提出了质疑。律师五次引用了幻影案件,无法解释为什么没有人能找到它们。虽然他不承认使用AI,但他声称它们可能是通过Google或Safari搜索出现的,这两者现在都具有AI生成的内容。
不必说,法官没有被逗乐。
“如果滥用人工智能,对司法和公众对司法系统的信心具有严重影响,”维多利亚·夏普法官在书面裁决中说。
书面裁决