什么构成了良好的表示?这个问题在机器学习中可以通过以下几种方式之一来解决:通过评估下游行为(例如,Geirhos 等人,2018 年),通过检查内部表示(例如,Kornblith 等人,2019 年),或通过表征系统的归纳偏差(例如,Kumar 等人,2022 年)。这些方法中的每一种都涉及在某种分析层面(无论是行为、内部表征还是介于两者之间的某种东西)测量人工智能系统与地面真实系统(通常是人类或人类群体)的一致性。然而,尽管有这个共同的目标,但研究人工智能和生物智能系统之间一致性的机器学习、神经科学和认知科学界目前缺乏一个跨方法和学科传达见解的共同框架。该研讨会旨在通过定义、评估和理解生物和人工系统之间表征对齐的含义来弥合这一差距。我们邀请机器学习、神经科学和认知科学界的研究人员以受邀演讲、投稿论文和结构化讨论的形式参与讨论,以解决以下问题:
在物理耦合的人机系统研究中,共生的概念被越来越多地提及。然而,对于人机共生的构成方面,却缺乏统一的规范。通过结合不同学科的专业知识,我们阐述了共生作为物理耦合人机系统最高形式的多元视角。共生涉及四个维度:任务、交互、性能和体验。首先,人与机器共同完成一项共同任务,该任务在决策和行动层面上概念化(任务维度)。其次,每个合作伙伴都拥有自己以及其他合作伙伴的意图和对环境的影响的内部表征。这种一致性是互动的核心,构成了双方之间的共生理解,是联合、高度协调和有效行动的基础(互动维度)。第三,共生互动会在合作伙伴的意图识别和互补优势方面产生协同效应,从而提高整体绩效(绩效维度)。第四,共生系统特别改变了用户的体验,如心流、接受度、主体感和体现(体验维度)。这种多元视角灵活而通用,也适用于各种人机场景,有助于弥合不同学科之间的障碍。
动物通过大脑中对世界的内部表征来指导其行为。我们旨在了解猕猴大脑如何存储这些一般的世界知识,重点是物体颜色知识。在猕猴中进行了三项功能性磁共振成像 (fMRI) 实验:观看彩色和无色光栅、观看他们熟悉的水果和蔬菜的灰度图像(例如,灰度草莓)以及观看真色和假色物体(例如,红色草莓和绿色草莓)。我们在色块中观察到了稳健的物体知识表征,尤其是位于 TEO 周围的色块:活动模式可以根据物体的记忆颜色对物体的灰度图片进行分类,并且这些区域中的响应模式可以在彩色光栅观看和灰度物体观看之间转换(例如,红色光栅 - 草莓的灰度图像),这样通过观看彩色光栅训练的分类器可以根据其记忆颜色成功地对灰度物体图像进行分类。我们的结果显示了猕猴物体颜色记忆的直接积极证据。这些结果表明基于感知的知识表征是一种保守的记忆机制,并为利用猕猴模型研究这种特殊的(语义)记忆表征开辟了一条新途径。
摘要 1986 年,数学家兼哲学家 Gian-Carlo Rota 写道:“我想知道人工智能是否或何时会突破意义障碍。”(Rota 1986)。这里的“意义障碍”一词指的是关于人类与机器的一种信念:人类能够“真正理解”他们遇到的情况,而即使是当今最先进的人工智能系统,对我们试图教给它们的概念也没有像人类一样的理解。这种缺乏理解可能是现代人工智能系统通用性和可靠性目前受到限制的原因。2018 年 10 月,圣达菲研究所举办了一场为期三天的研讨会,由 Barbara Grosz、Dawn Song 和我组织,名为“人工智能与意义障碍”。来自人工智能、机器人技术、认知和发展心理学、动物行为、信息理论和哲学等不同学科的 30 名参与者齐聚一堂,讨论与生命系统中“理解”的概念以及机器中这种理解的前景相关的问题。希望研讨会的结果能够对更广泛的社区有所帮助,本文总结了讨论的主要主题并强调了研讨会上提出的一些想法。简介 1986 年,数学家和哲学家 Gian-Carlo Rota 写道:“我想知道人工智能是否或何时会突破意义的障碍。”(Rota 1986)。此处,“意义障碍”一词指的是人类与机器之间的一种信念:人类能够“真正理解”他们遇到的情况,而即使是当今最先进的人工智能系统,对我们试图教给它们的概念,也还没有像人类一样理解。也就是说,人工智能系统学习到的(或编程到的)内部表征并没有捕捉到人类在感知、语言和推理中赋予的丰富含义。这种缺乏理解可能是现代人工智能系统通用性和可靠性目前受到限制的原因。虽然通过监督或强化学习训练的深度神经网络在计算机视觉、自然语言处理和其他人工智能核心领域的许多问题上表现非常出色,但与人类智能相比,这些系统仍然很脆弱。即使是最成功的深度网络,在面对与其训练方案有哪怕是微小差异的输入时,也会以意想不到的方式失败。此外,这样的
目前,人类水平的人工智能 [也称为“强人工智能”、“通用人工智能 (AGI)”等] 是科学界和公众最感兴趣的问题之一。然而,由于许多客观和主观原因(Bostrom,2014),该领域的具体研究和工程工作很少。下面回顾了我们研究主题中发表的四篇论文,然后简要概述了 AGI 的最终发展。本主题的第一篇文章(Karimpanal 和 Bouuffanais)重点关注强化学习算法中改进经验重放技术的问题。为了更有效地学习,作者提出了一种选择合适的转换序列来加速学习的方法。新方法结合了跟踪和存储、构建和重放与更高幅度的时间差异误差相关的合适转换序列。该方法在离策略环境中针对诸如水坑世界和山地车等任务进行了评估,结果表明,通过可控记忆参数,学习速度显著提高。Tapia 等人的论文与我们的大脑通过观察与环境有效互动所需的运动主题来构建和学习的能力有关。作者开发了一种基于动作语义知识、利用神经网络动态构建随时间变化情况下的行为的模型。他们的研究结果指出,在认知层面存在某种形式的静态内部表征机制,涉及构建广义地图的决策和战略规划。在虚拟击剑(防守和进攻)战斗游戏的任务中报告了认知运动技能的结果,并使用真实机器人进行了实验验证。在简要概述中,Bac 和 Zinovyev 描述了将多维空间投影到类比蜥蜴脑任务指定的低维空间的现代方法。他们的评论基于数学投影理论的概念,提供了关于局部固有维数的见解,有助于在实际中选择提取和检测 AI 应用中有用的低维表示的方法。他们列出了 100 篇参考文献,展示了几种以相似性或不相似性为特征的注入、投影和多重流形技术。因此,开发新的数学数据分析方法是现在和不久的将来创建学习系统的最重要任务之一。最后,Tyukin 等人开发了一个框架,用于知识在 AI 系统中传播的过程,而无需大量计算资源。他们展示了 AI 系统如何使用预训练的卷积神经网络为独立的 AI 代理创建训练环境。作者使用了两种学习算法来完全自动化知识和经验的传递,其中一个算法充当“老师”,另一个算法充当“学生”。该框架用于视频流中的自动行人检测,并表现出对过滤假阳性和假阴性错误的极高选择性。