自我提醒:今天下午我对 MAMLM GPT LLM Pseudo-AGI 现状的看法

在付费专区后面,因为只有那些真正有兴趣密切关注我的 MAMLM 解释和评估之旅的人才会感兴趣。当前观点:思想哑剧:法学硕士...

来源:Brad DeLong
在付费专区后面,因为只有那些真正有兴趣密切关注我的 MAMLM 解释和评估之旅的人才会感兴趣。当前观点:思想的哑剧:法学硕士工作得非常奇怪,除了它们不工作的地方,当我们从内核平滑到Beelzebub遍历字母、数字和代码的景观并检查伪AGI时,它的成功具有启发性,而它的失败可能更具有启发性。将“人工智能”视为一只巨大的、过度自信的鹦鹉,进行大规模的冷读,神奇和疯狂都在某种程度上成为焦点——令人惊讶地擅长模仿人类的思想,但在保持故事正确性方面却令人震惊地糟糕,除非他们的代码无法运行,在这种情况下,他们会一次又一次地跺着聪明的汉斯的脚,直到它运行……

分享

概括一下:

在某种程度上,MAMLM GPT LLM 是线性代数的沸腾,其作用如下:

它需要它能获取的每一次人类对话和文本片段。

然后将该文本块与该对话中的下一个单词进行匹配。

因此,您可以向 LLM 提供一段文本。

然后,它从训练数据中选择一个文本块,它认为该文本块与您输入的文本块“接近”。 (它是怎么做到的?数学。)

然后它会用下一个词来回应你。

然后它继续将刚刚给你的单词添加到文本块中并再次执行整个过程。

现在这不是“思考”。