详细内容或原文请订阅后点击阅览
AI 为什么会产生幻觉?
4 月 2 日,世界卫生组织推出了一款名为 SARAH 的聊天机器人,以提高人们对如何健康饮食、戒烟等健康问题的认识。但和其他聊天机器人一样,SARAH 开始给出错误答案。这导致了很多网络喷子,最后,通常的免责声明:聊天机器人的答案可能不准确。这种编造事物的倾向被称为幻觉,是聊天机器人面临的最大障碍之一。为什么会发生这种情况?为什么我们不能解决它?让我们通过观察大型语言模型的工作原理来探索它们产生幻觉的原因。首先,编造东西正是 LLM 的设计目的。聊天机器人从大型语言模型中提取响应,而无需在数据库中查找信息或使用搜索引擎。大型语言模型包含数十亿个数字。它使用这些数字从头开始计算其响应,动态生成新的单词序列。大型语言模型更像是一个向量,而不是百科全书。https://medium.com/media/260ffdc0d69d4e1186a4969c41c75c63/href大型语言模型通过预测序列中的下一个单词来生成文本。然后将新序列反馈到模型中,模型将猜测下一个单词。然后这个循环继续下去。生成几乎任何可能的文本。LLM 就是喜欢做梦。该模型捕获单词被预测为某些单词的统计可能性。可能性是在训练模型时设置的,其中模型中的值是
来源:成为人类4月2日,世界卫生组织推出了一个名为Sarah的聊天机器人,以提高人们对诸如如何饮食,戒烟等事情等事情的认识。
,但是像其他任何聊天机器人一样,莎拉开始给出错误的答案。导致了很多互联网巨魔,最后是通常的免责声明:聊天机器人的答案可能不准确。这种构成幻觉的趋势是聊天机器人面临的最大障碍之一。为什么会发生这种情况?为什么我们不能修复它?
让我们探讨为什么大型语言模型通过查看它们的工作方式而幻觉。首先,制作问题正是LLM旨在做的。聊天机器人从大语言模型中汲取响应,而无需在数据库中查找信息或使用搜索引擎。
大型语言模型包含数十亿个数字。它使用这些数字从头开始计算其响应,从而生成新的单词序列。大型语言模型更像是向量而不是百科全书。
大语言模型通过预测序列中的下一个单词来生成文本。然后,新序列被反馈到模型中,这将猜测下一个单词。然后,这个周期继续。生成几乎所有可能的文本。 LLM只是喜欢做梦。
该模型捕获了用某些单词预测单词的统计可能性。当训练模型时,设置了可能性,在该模型中,模型中的值一遍又一遍地调整,直到它们符合培训数据的语言模式。一旦受过训练,该模型就会计算词汇中每个单词的分数,从而计算其接下来的可能性。
基本上,所有这些炒作的大语言模型都是幻觉。但是我们只注意到何时出错。问题是您不会注意到它,因为这些模型擅长于它们的工作。这使他们很难信任他们。