揭开人工智能的常识悖论

为什么重要:人工智能的常识悖论揭秘探讨了为什么人工智能仍然无法完成人类早期掌握的基本推理任务。

来源:人工智能+

揭开人工智能的常识悖论

人工智能的常识悖论揭晓不仅仅是技术上的好奇心。它凸显了我们对机器和人类智能理解中最深刻的差距之一。虽然当今的人工智能系统擅长检测模式和执行逻辑任务,但它们常常无法进行简单、直观的推理,即使是孩子也能轻松理解。这种性能差距很大,因为现实世界的决策通常需要的不仅仅是统计数据或逻辑。本文探讨了机器逻辑和人类直觉之间的鸿沟,借鉴机器学习和认知科学的研究来探讨为什么人工智能仍然缺乏常识。

要点

  • 人工智能系统在结构化逻辑方面很强,但在基于上下文的判断方面较弱,常常无法完成需要直觉常识的任务。
  • 这一差距限制了人工智能在经常出现模糊性和细微差别的现实应用中的可靠性。
  • 人类常识源于具体化、情感和生活经验,而大多数人工智能模型都缺少这些。
  • 缩小差距需要神经科学、心理学和机器学习进步的见解。
  • 理解人工智能常识:核心问题

    人工智能在解决技术问题和掌握国际象棋或围棋等结构化游戏方面取得了进步。然而,这些相同的系统在回答简单的问题(例如大象是否可以穿过门口)时会遇到困难。这些失败并不是小错误。它们揭示了人工智能缺乏人类自然获得的内置知识的根本缺陷。

    认知鸿沟:人工智能中的直觉与逻辑

    人工智能推理失败的现实例子

    即使在表现最好的模型中,判断失误的例子也并不罕见。他们证明了人工智能通常缺乏简单的现实世界推理所需的思维灵活性:

  • 物体跟踪:一些视觉系统一旦隐藏物体就会失去对物体的跟踪,从而忽略了物体的持久性,甚至婴儿也很早就发育了这种能力。