谁需要“AGI”

人类几乎什么都不擅长。 Yann LeCun 最近指出了这一点。婴儿什么都不擅长(忽略了开玩笑的机会),4 岁的孩子懂一些语言,但不能胜任在工厂工作。如果有人不懂数学,他们就不能当数学老师。

来源:AI的零点原则
人类几乎什么都不懂。Yann LeCun 最近指出了这一点。 婴儿什么都不懂(玩笑机会忽略),4 岁的孩子懂一点语言,但不能胜任工厂工作。如果一个人不懂数学,他就不能当数学老师。 看看《我,机器人》中的场景,威尔·史密斯的角色问“机器人能谱写交响乐吗?机器人能把画布变成一幅美丽的杰作吗?”机器人回答“你能吗?” 人工智能可以学习语言和我们想用它们解决的几个问题领域。 今天 。但如果我们希望人工智能在当地市政办公室批准建筑许可,它就不需要知道如何做饭。或者煮咖啡。因为那样它就需要胳膊和腿。 仅仅因为我们只教它们处理一项工作的能力,并不意味着它们是“狭义人工智能”。因为唯一真正通用的人工智能是能够学习任何东西的人工智能。 坚持让机器人和人工智能学习人类在工厂已经知道的一切 都是对记忆和学习时间的浪费。这是一个 20 世纪的想法,基于当时未来的人工智能,这些人工智能是经过编程的,而不是学习的。“我们必须让人工智能来编程人工智能——否则它们怎么能知道一切?”直到 2015 年,在我人工智能领域的还原论竞争对手的脑海中,这仍然是 20 世纪的主导范式。 这些顽固分子不得不被带到深度神经网络和机器学习中,他们对此又恨又气。他们仍然在继续推行他们旧的“AGI”理念。他们可以阅读手册和 API 规范并了解 LLM 的工作方式 但他们永远不会理解 为什么 它们有效,直到他们切换到整体立场。 如果我们今天听听发明“AGI”一词的人的话,仍然有一股暗流在涌动,他们不相信他们说他们了解 LLM、ML 和 DL 时所说的话。 他们仍然是还原论者。 嘿,吃下 红色药丸 ,你们。 “AGI”一词有有用和无用的定义。 巧合的是,根据“AGI”的所有有用定义,我们已经有了它。