负责任的谎言:AI如何出售而没有真理的信念

负责任的谎言:AI如何出售信念而没有由Gleb Lisikh通过Epoch Times进行的真实性,围绕生成性AI的广泛兴奋,尤其是大型语言模型(LLMS),例如Chatgpt,Gemini,Gemini,Grok和Deepseek,是基于基本的误解。尽管这些系统具有清晰的响应和看似有理由的论点,但事实是,似乎“推理”的内容不过是模仿的复杂形式。这些模型并没有通过事实和逻辑论点来搜索真理,而是根据“培训”的广泛数据集中的模式来预测文本。那不是智力,也不是理由。而且,如果他们的“培训”数据本身是偏见的,那么我们就会有真正的问题。我确定,急切的AI用户会让急切的AI用户得知LLMS核心的体系结构是模糊的,并且与结构化的逻辑或因果关系不相容。思想不是真实的,它是模拟的,甚至没有顺序。人们对理解的错误实际上是统计关联。大肆宣传的新功能(例如“经营链”的解释)是旨在给用户留下深刻印象的技巧。实际上看到的用户最好被描述为在模型通过概率预测得出答案之后生成的一种合理化。但是,这种幻想足以使用户相信该机器正在进行真正的审议。而且这种幻觉不仅仅是误导性,而且是合理的。ll

来源:Zero Hedge

由Gleb Lisikh通过时代

围绕生成AI的广泛兴奋,尤其是大型语言模型(LLM),例如Chatgpt,Gemini,Grok和Deepseek,是基于基本的误解。尽管这些系统具有清晰的响应和看似有理由的论点,但事实是,似乎“推理”的内容无非是一种复杂的模仿形式。

这些模型不是通过事实和逻辑论点来寻找真理 - 他们正在根据“训练”的广泛数据集中的模式来预测文本。那不是智力,也不是理由。而且,如果他们的“培训”数据本身有偏见,那么我们就会遇到真正的问题。

我敢肯定,急切的AI用户会惊讶于学习LLMS核心的体系结构是模糊的,并且与结构化的逻辑或因果关系不相容。思想不是真实的,它是模拟的,甚至没有顺序。人们对理解的错误实际上是统计关联。

大肆宣传的新功能(例如“经过思考”的解释)是旨在给用户留下深刻印象的技巧。实际上看到的用户最好被描述为在模型通过概率预测得出答案之后生成的一种合理化。但是,这种幻想足以使用户相信该机器正在进行真正的审议。而且这种幻觉不仅仅是误导性,而且是合理的。

llms不是中性工具,而是在我们时代的偏见,谬论和主导意识形态的数据集上进行了训练。他们的输出反映了盛行或流行的情感,而不是最佳的真相尝试。如果对特定主题的流行情绪在政治上倾向于一个方向,那么AI的答案也很可能会这样做。当“推理”只是对模型已经决定的任何事后的理由时,它就会成为一种强大的宣传设备。

对此不乏证据。

对话 显示 HHH