详细内容或原文请订阅后点击阅览
为什么Openai对AI幻觉的解决方案明天会杀死Chatgpt
Openai发表了一篇新论文,确定了Chatgpt为什么容易构成事情。不幸的是,问题可能是无法混合的。
来源:LiveScienceOpenAI的最新研究论文诊断出了为什么Chatgpt和其他大型语言模型可以构成事物 - 在人工智能世界中被称为“幻觉”。这也揭示了为什么至少就消费者而言,这个问题可能是无法解决的。
OpenAI的最新研究论文 大语言模型 人工智能 “幻觉”本文提供了最严格的数学解释,目的是为什么这些模型自信地陈述了虚假性。它表明,这些不仅仅是AIS当前训练的方式的不幸副作用,而且在数学上是不可避免的。
问题可以通过用于训练AIS的基础数据中的错误来解释。但是,利用数学分析AI系统的学习方式,研究人员证明,即使有了完美的培训数据,问题仍然存在。
语言模型对查询的响应方式(通过一个句子中的一个单词基于概率预测一个单词,自然会产生错误。研究人员实际上表明,生成句子的总错误率至少是AI在简单的是/否问题上具有相同的错误率的两倍,因为错误可能会在多个预测上积累。
换句话说,幻觉速率从根本上是由AI系统能够区分有效与无效响应的方式的界限。由于对于许多知识领域而言,这种分类问题本质上是困难的,因此幻觉变得不可避免。
也证明,模型在训练过程中看到的事实越少,在被问及时,幻觉的可能性就越大。例如,有了著名数字的生日,发现如果有20%的人的生日只出现在培训数据中一次,那么基本模型应至少获得20%的生日查询。
相关:'瓶子里没有把那只精灵推回':读者认为停止AI
相关: