使用AI

最近,AI系统犯错误和人类错过这些错误的倾向已在美国的法律系统中充分显示。当律师(包括著名公司的一些律师)以不存在的案件为例时,这些愚蠢就开始了。类似的错误很快就会传播到法院的其他角色。在12月,…

来源:MIT Technology Review _人工智能

在此中,戈达德似乎被AI繁荣为我们许多人创造的同样困境所抓住。在三年的时间里,公司建立了听起来如此流利和人类的工具,以至于掩盖了潜伏在下面的棘手的问题,这些问题的读物读得很好,但却是错误的,经过训练的模型,除了什么都没有完美的情况下,都不错,并且您与他们的对话会泄漏到互联网上的风险。每次使用它们时,我们敢打赌,节省的时间将超过风险,并相信自己在重要的情况下捕获错误。对于法官来说,赌注是高高的:如果他们输掉了下注,他们将面临非常公众的后果,这些错误对他们所服务的人的影响可能会持久。

泄漏

“我不会成为引用幻觉案件和命令的法官,”戈达德说。 “这真的很尴尬,非常专业。”

仍然,有些法官不想在AI时代被抛弃。由于AI领域的某些人表明,AI模型的假定客观性和合理性可以使他们比易犯错的人类更好,因此,可能会导致一些人认为落在后面的板凳上会带来更大的风险,而不是走得太远。

更好的法官

“等待发生的危机”

早期收养的风险与法官斯科特·施莱格尔(Scott Schlegel)提出了警钟,后者在路易斯安那州第五巡回上诉法院任职。施莱格(Schlegel)长期以来一直在博客上讲述了技术在现代化法院系统中所扮演的有用角色,但他警告说,法官裁决中的AI造成的错误表明了“等待发生的危机”,这将使律师提交给律师提交的问题的问题与化妆案件提交。

信号

考虑儿童监护案件或保释程序,施莱格尔说:“当法官依靠人工智能做出决定时,会产生相当大的后果,尤其是如果决定依赖的引用是构成或不正确的话。

化妆案件 撤回