详细内容或原文请订阅后点击阅览
llms不是
人们说的是
来源:AI的零点原则如果我们在认识论层面检查了大型语言模型(LLM),我们发现它们在许多方面都被误解了。从名称开始。
在认识论中,模型是对现实的人为理解的简化,使我们能够使用基于推理的问题解决方法,例如“ F = MA”,“ E = MC2”,“标准模型”或“奥地利经济学”
llms是从某些问题领域(例如人类语言)中学到的模式和模式的集合。 LLM并非围绕单词或语法列表而设计,即20世纪的语言模型。
统计是还原论工具包中最弱的工具。统计数据丢弃了所有上下文。每当LLM学习时,它都会在上下文中学习所有内容并保留许多上下文。这是LLM昂贵学习的原因之一。统计数据有时可能用于学习算法的一部分,但上下文的保存是智能所独有的。
在推理时,当解决问题而不是学习时,统计数据可能起着更小的作用。
llms是当前一代的机器,能够以很少的证据得出结论,其中大多数依赖于收集的相关性。
llms是当前的机器 能够以很少的证据得出结论,其中大多数依赖于收集的相关性。LLM与包括人类在内的所有智能一样,“猜测机”。
这不是很科学,是吗?
对于所有智能都是如此。无所不能,所有语料库都是不完整的。
询问有关LLM一无所知的问题的结果是幻觉。如果您不喜欢幻觉,请提出更轻松的问题。
询问有关LLM一无所知的问题的结果,是 幻觉 。如果您不喜欢幻觉,请提出更轻松的问题。np-hardness是一个还原主义和逻辑概念。 LLM使用类似于人类在现实世界中使用的方法来解决问题。
np-hardness 。