生命的幻觉

现有的人工智能可能有知觉吗?如果没有,那还缺少什么?当今的大型语言模型 (LLM) 已经非常擅长生成听起来深思熟虑且聪明的类似人类的响应。许多人都认为 LLM 已经达到了艾伦·图灵著名测试的门槛,该测试的目标是在对话中表现得与人无异。这些 LLM 能够生成听起来深思熟虑且聪明的文本,并且可以令人信服地模仿情绪的表现。智能的幻觉尽管它们能够令人信服地模仿人类的对话,但当前的 LLM 不具备思考或情感的能力。它们产生的每个单词都是基于从大量文本数据中学习到的统计模式的预测。随着每个单词一次生成,此预测过程会重复发生。与人类不同,LLM 无法记忆或自我反思。它们只是按顺序输出下一个单词。预测下一个单词能够如此准确地模仿人类智能,真是令人惊讶。这些模型可以执行编写代码、分析文献和制定商业计划等任务。以前,我们认为这些任务非常困难,需要复杂的逻辑系统,但现在事实证明,只需预测下一个单词就足够了。预测下一个单词对于复杂任务如此有效这一事实出乎意料,也有些令人困惑。这种熟练程度是否意味着 LLM 在某些方面非常强大?

来源:走向数据科学

生命的幻觉

生命的幻觉

现有的人工智能可能有知觉吗?如果没有,那还缺少什么?

当今的大型语言模型 (LLM) 已经非常擅长生成听起来深思熟虑且聪明的类似人类的响应。许多人都认为 LLM 已经达到了艾伦·图灵著名测试的门槛,该测试的目标是在对话中表现得与人无异。这些 LLM 能够生成听起来深思熟虑且聪明的文本,并且可以令人信服地模仿情绪的表现。

大型语言模型 (LLM) 艾伦·图灵的著名测试

智能的幻觉

尽管它们能够令人信服地模仿人类的对话,但当前的 LLM 并不具备思考或情感的能力。它们产生的每个单词都是基于从大量文本数据中学习到的统计模式的预测。随着每个单词的生成,这个预测过程会重复发生。与人类不同,LLM 无法记忆或自我反思。它们只是按顺序输出下一个单词。

预测下一个单词能够如此准确地模仿人类智能,这真是令人惊叹。这些模型可以执行编写代码、分析文献和制定商业计划等任务。以前,我们认为这些任务非常困难,需要复杂的逻辑系统,但现在事实证明,只需预测下一个单词就足够了。

预测下一个单词对于复杂任务如此有效这一事实出乎意料,也有些令人困惑。这种熟练程度是否意味着 LLM 在某些我们不理解的方面非常强大?或者这是否意味着 LLM 能做的事情实际上非常简单,但它们对人类来说似乎很难,因为也许在某些客观尺度上人类可能实际上并没有那么聪明?

人类可能实际上并没有那么聪明

句子的先决条件

有知觉的 有意识的 自我意识的 情绪状态 超级智能 通用人工智能 (AGI)

当今的局限性和幻想

LSTM 区域