人工智能技术在军事决策过程中的普及似乎正在增加。起初,人工智能在军事领域的应用主要与武器系统有关,这些武器系统通常被称为自主武器系统 (AWS),可以在无需进一步人工干预的情况下识别、跟踪和攻击目标 (红十字国际委员会 [ICRC] 2021)。世界各地的军队已经使用了武器系统,包括一些巡飞弹,这些武器系统结合了人工智能技术来促进目标识别,通常依赖于计算机视觉技术 (Boulanin 和 Verbruggen 2017;Bode 和 Watts 2023)。虽然巡飞弹通常在人类批准下操作,但似乎有可能在没有人为干预的情况下动态施加武力。事实上,俄罗斯在乌克兰战争的各种报道表明,乌克兰军队在作战的最后阶段使用巡飞弹,在未经人类批准的情况下释放武力 (Hambling 2023, 2024)。这些发展有力地强调了人们长期以来日益增长的担忧,即在使用基于人工智能的系统时,人类在武力决策中所起的作用正在逐渐减弱。
当前心灵哲学的争论之一是情境性问题,即心灵究竟存在于何处以及认知发生于何处。三种主要立场是内在主义,认为认知仅发生在身体内部,特别是大脑中(Adams 和 Aizawa 2009),分布式认知 (DCT) 理论,其中工具可用于辅助认知,但它们本身只是工具,本身不具有能动性(Giere 2004),以及扩展认知 (ExCT),其中个体的位置及其认知方式可能包括与外部代理的临时联系,而这些外部代理本身是活跃的(Clark 和 Chalmers 1998)。 Clark 和 Chalmers 著名的 ExCT 例子使用了 Inga 和 Otto,它依赖于记忆作为一种认知功能而存在的想法,尽管认知的主要机构可能发生在大脑中,但认知工作可以说可以被“负荷”到环境中的条件上。“认知负荷是指通过身体动作(如写下信息或在手机或电脑上存储信息)来减少任务的心理处理要求的行为。”(Morrison 和 Richmond 2020)认知负荷可以提高效率,缓解记忆压力,尤其是在有很多事情要做的情况下。
能动性被定义为通过单一循环演化可以提取的最大功量。它在评估量子系统的工作能力方面起着至关重要的作用。最近,量子相干性在工作提取中的重要性已在理论上得到确认,表明相干性更高的量子态比失相态量子态具有更高的能动性。然而,相干能动性的实验研究仍然缺失。在这里,我们报告了对单自旋系统中相干能动性的实验研究。基于使用辅助量子比特测量能动性的方法,成功提取了非平衡态能动性的相干和非相干分量。通过改变状态的相干性,观察到了系统相干性增加引起的能动性的增加。我们的工作揭示了量子热力学和量子信息论之间的相互作用,未来的研究可以进一步探索其他量子属性在热力学协议中的作用。
顾问兼前硅谷首席执行官 Alan Mutter 观察到,“人工智能的一代又一代和应用程序的迭代将改善未来的结果,但是,机器——以及运行它们的人——将控制这些结果。人工智能的好坏取决于算法背后的人和系统背后的数据集。从定义上讲,人工智能赋予机器使用大型且不完善的数据库进行判断的能力。由于人工智能系统被设计为或多或少自主运行,因此很难想象这种系统如何受到公众的控制,因为公众大多不太可能知道是谁建立了这些系统,系统如何运行,它们依赖哪些输入,系统是如何训练的,以及它可能如何被操纵以产生某些期望的和可能未知的结果。”
顾问兼前硅谷首席执行官 Alan Mutter 观察到,“人工智能的一代又一代和应用程序的迭代将改善未来的结果,但是,机器——以及运行它们的人——将控制这些结果。人工智能的好坏取决于算法背后的人以及系统背后的数据集。从定义上讲,人工智能赋予机器使用大型且不完善的数据库进行判断的能力。由于人工智能系统的设计或多或少是自主运行的,因此很难想象这种系统如何受到公众的控制,因为公众大多不太可能知道是谁建立了这些系统、系统如何运行、它们依赖哪些输入、系统是如何训练的以及如何操纵它以产生某些期望的甚至是未知的结果。”
人工智能 (AI) 系统的快速发展表明,通用人工智能 (AGI) 系统可能很快就会到来。许多研究人员担心 AI 和 AGI 会通过故意滥用 (AI-misuse) 或意外事故 (AI-accidents) 伤害人类。关于 AI-accidents,人们越来越致力于开发算法和范例,以确保 AI 系统与人类的意图保持一致,例如,AI 系统产生的行动或建议可能被人类判断为与他们的意图和目标一致。在这里,我们认为,与人类意图保持一致不足以保证 AI 系统的安全,而长期保护人类的能动性可能是一个更强大的标准,需要在优化过程中明确和先验地将其分开。我们认为 AI 系统可以重塑人类的意图,并讨论了保护人类免于失去能动性的生物和心理机制的缺乏。我们提供了第一个保护能动性的 AI-人类互动的正式定义,该定义侧重于前瞻性的能动性评估,并认为 AI 系统(而不是人类)必须越来越多地承担这些评估的任务。我们展示了在包含嵌入式代理的简单环境中如何发生代理丧失,这些代理使用时间差分学习来提出行动建议。最后,我们提出了一个名为“代理基础”的新研究领域,并提出了四个旨在提高我们对人工智能与人类互动中代理的理解的初始主题:仁慈博弈论、人权的算法基础、神经网络中代理表示的机械可解释性和从内部状态进行强化学习。
人类智能与人工智能 (AI) 的融合对于在组织决策中发挥优势正变得越来越重要。这需要了解人机协作配置以管理协作智能。然而,现有的关于人机协作的文献缺乏结构,并且在人类智能 (HI) 对人工智能协作的贡献以及人工智能系统如何在决策过程中配置方面支离破碎。本文进行了有组织的文献综述,以整合现有文献的见解。我们确定了协作智能中涉及的六种人类机构,并将研究结果综合成六种人机协作配置,并用矩阵框架进行解释。通过阐明人机协作的复杂性,该框架阐明了对 HI 和人工智能在决策中的相互交织作用有细致理解的必要性,这对设计和实施用于组织决策的人工智能系统具有重要意义。
对环境施加灵活的工具控制的能力是适应性决策的决定性特征。在这里,我们研究了调节对具有更大工具分歧的环境的偏好的神经基础,工具分歧是与替代行动相关的结果概率分布之间的距离。作为代理的正式指标,工具分歧允许有机体随着偏好的变化灵活地获得当前最期望的结果。因此,它可能具有内在效用,引导决策走向最大化工具力量的环境。与此观点一致,我们发现,将工具分歧视为奖励替代品的预期价值测量比仅对金钱奖励敏感的传统模型更好地解释了男性和女性人类参与者的选择偏好。使用基于模型的 fMRI,我们发现前额外侧和腹内侧 PFC 中的活动(分别与抽象认知推理和主观价值计算相关)随基于分歧的预期价值解释而缩放。讨论了信息理论和动机变量的神经共同货币的含义。
摘要 脑机接口 (BCI) 可作为中风康复的一种手段,但较低的 BCI 性能会降低自主性 (用户的感知控制),使用户感到沮丧,从而妨碍康复。在这些康复任务中,BCI 可以实现虚构的输入 (预先编程的正反馈),从而改善自主性并减少沮丧。两项针对健康受试者和中风患者的子研究通过完成游戏和简单任务调查了这种潜力:1) 16 名健康受试者使用基于运动想象的在线 BCI;2) 13 名中风患者使用基于通过眼动仪进行眨眼检测的替代 BCI 系统来获得高度可靠的输入信号。子研究 1 在四种条件下测量了感知控制和沮丧:1) 不变的 BCI 控制,2) 30% 保证来自虚构输入的正反馈 3) 50% 保证的负反馈,和 4) 50% 保证的负反馈和 30% 保证的正反馈。在子研究 2 中,中风患者对结果的控制率为 50%,四种情况增加了从 0% 到 50% 的正反馈。在两项子研究中,正反馈提高了参与者的感知控制力并减少了挫败感,并且随着正向虚构输入量的增加,改善程度也随之增加。中风患者对虚构输入的反应不如健康参与者那么强烈。虚构输入可以隐藏在在线和代理 BCI 中,可用于改善基于游戏的交互和简单任务中的感知控制力和挫败感。这表明 BCI 设计师可以发挥艺术自由,创造引人入胜的基于运动意象的叙事游戏交互或更简单的游戏化交互,以促进改进培训工作。