AI和“ Cliff Clavin问题”

在电视节目中欢呼,克里夫·克拉文(Cliff Clavin)是一个非常努力地说出色的声音的角色,但大多数时候谁只是构成事实。 AI,特别是大型语言模型(LLM),有一个悬崖Clavin问题。就像我喜欢LLM一样,我也担心,我担心,因为我们越来越多地整合并依赖于一项既不是本质上既不是事实上也不真实的技术,而使用这种技术可以证明我们的写作和思考的能力可以降低我们自己的语言。由算法创建的,这些算法根据其培训数据中发现的概率模式来安排单词。他们没有像百科全书那样存储信息,因此,当我们说30%的输出不准确或不正确时,这并不意味着其他70%是完全准确的,或者是任何计算出的推理的结果,或者是足够接近的材料 - 它已经训练了它的材料,以至于我们认为它是在越来越多地进行的,我们认为它是在越来越多的模型。步骤。即使是这些推理步骤,然后这些模型从它们的精制输出也仍然基于语言概率。这是一个了不起的进步,但LLM仍然无法做出实际推理。再一次,我们所说的ACC

来源:Steve Hargadon博客

在电视节目中欢呼,克里夫·克拉文(Cliff Clavin)是一个非常努力地说出色的声音的角色,但大多数时候谁只是构成事实。 AI,特别是大型语言模型(LLMS)有一个悬崖克拉文问题。

我喜欢LLM,而且我也担心,因为我们越来越多地整合并依赖既不是真实事实也不真实的技术,而这种技术的使用显然可以降低我们自己的写作能力和思考的能力。

我们谈论的是,LLM输出的某些百分比是“幻觉”,但事实是所有大型语言模型输出都是捏造的,即是由算法创建的,这些算法根据其培训数据中发现的概率模式来安排单词。他们没有像百科全书那样存储信息,因此,当我们说30%的输出不准确或不正确时,并不意味着其他70%是完全准确的,或者是任何计算出的推理的结果,它与我们认为它是“真实”的材料足够接近。

由于围绕人工通用情报及其实现的愿望进行了越来越多的讨论,因此正在对大型语言模型进行训练,以通过推理步骤模仿智力的证据。即使是这些推理步骤,然后这些模型从它们的精制输出也仍然基于语言概率。这是一个了不起的进步,但LLM仍然无法做出实际推理。同样,我们所说的准确或事实输出只是输出,它符合大多数信念,即对模型的准确和真实培训。

现在我们有一个非常真实的问题要解决。