详细内容或原文请订阅后点击阅览
如何解决人工智能的“锯齿状智能”问题
人工智能聊天机器人现在可以执行许多复杂的任务,但它们也可能犯许多基本错误——这个问题被称为“锯齿状智能”。为了解决这个问题,人工智能研究员维奈·乔杜里 (Vinay Chaudhri) 表示,生成式人工智能的底层模型需要接受更多人类知识的训练。
来源:Undark Magazine现代人工智能聊天机器人可以做一些令人惊奇的事情,从撰写研究论文到创作关于你的猫的莎士比亚十四行诗。但在天才的火花中,也有愚蠢的闪光。当今生成式人工智能工具背后的大型语言模型(LLM)一次又一次地犯下基本错误——从未能解决基本的高中数学问题到绊倒四子棋的规则。
这种不稳定性在科技界被称为“锯齿状智能”,这不仅仅是一个怪癖,它是一个严重的失败,也是许多专家认为我们处于人工智能泡沫中的部分原因。你不会雇佣这样的医生或律师,尽管他们提供了合理的医疗或法律建议,但有时却表现得对世界如何运作一无所知。企业似乎对让“锯齿状”人工智能负责供应链、人力资源流程或财务运营也有同样的看法。
为了解决智力参差不齐的问题,我们必须让我们的人工智能模型能够获得更强大、更结构化、最终更加人类化的知识储备。 30 多年来,我设计了一系列人工智能系统,发现这些知识是任何可靠系统不可或缺的组成部分。
这是因为开启人工智能时代的技术创新无法平滑这些锯齿状边缘。当前的人工智能模型对于世界如何运作没有明确的规则;相反,他们从大量数据中推断事物。换句话说,他们不知道事情,所以他们被迫猜测——当他们猜测错误时,结果会很滑稽,也可能是灾难性的。
当前的人工智能模型对于世界如何运作没有明确的规则;相反,他们从大量数据中推断事物。
Frontier AI 实验室已经开始尝试这种方法。早期的法学硕士在小学数学方面遇到了困难,因此研究人员专注于实际的数学知识——不是模糊的推论,而是关于数学如何运作的明确规则。结果:谷歌的最新模型现在可以可靠地解决数学奥林匹克问题。
