人们常说机器人和人工智能应用程序 (RAI) 技术非常先进,它们应该为自己的行为负责,而不是设计或操作它们的人。本文旨在证明这种论点(“例外主义主张”)——就其本身而言——在理论上是错误的,在实践中也不充分。事实上,本文认为这种主张是基于对“法律责任”的概念和功能的一系列误解,本文试图通过开发跨学科的概念分类来澄清这些误解。在此过程中,本文旨在为就赋予机器人应用法律地位的可行性进行更具建设性的辩论奠定前提。在简短的介绍为辩论奠定基础之后,本文讨论了本体论主张,区分了关于 i)主观性和 ii)代理概念的哲学辩论和法律辩论,以及它们各自的含义。通过分析,我们可以得出结论:法律主体性和代理权的归因纯粹是虚构和技术解决方案,旨在促进法律互动,并不依赖于 RAI 的内在性质。对于责任概念,我们保持了类似的结构,首先从哲学角度,然后从法律角度进行讨论,以说明后者通常如何用于追求事前威慑和事后补偿。对第二个目标的关注使我们能够将分析与功能(基于法律和经济学)考虑联系起来,讨论如何将法人资格的归因视为简化某些法律互动和关系的尝试。在这样的框架内,是否将法律主体性归因于机器的讨论需要完全在法律领域内进行,并以技术(法律)考虑为基础,在对特定类别的 RAI 进行功能、自下而上的分析的基础上进行论证。这并不意味着将生命力归因于实体本身或将道德地位归因于实体本身。
摘要 — 由于脑电图 (EEG) 的受试者间/受试者内变异性,脑机接口 (BCI) 在实践中难以使用。通常,BCI 系统需要一种校准技术来获取受试者/会话特定数据,以便在每次使用系统时调整模型。这个问题被认为是 BCI 的一个主要障碍,最近出现了一种基于领域泛化的新策略来解决它。鉴于此,我们专注于开发一个 EEG 分类框架,该框架可以直接应用于来自未知域(即受试者)的数据,仅使用先前从不同受试者获得的数据。为此,在本文中,我们提出了一个框架,该框架采用开放集识别技术作为辅助任务,从源数据集中学习特定于主题的风格特征,同时帮助共享特征提取器将看不见的目标数据集的特征映射为新的看不见的域。我们的目标是在同一域中施加跨实例样式不变性,并降低潜在未见主体的开放空间风险,以提高共享特征提取器的泛化能力。我们的实验表明,使用域信息作为辅助网络可以提高泛化性能。临床相关性——本研究提出了一种提高独立于主体的 BCI 系统性能的策略。我们的框架可以帮助减少进一步校准的需要,并可用于一系列心理状态监测任务(例如神经反馈、癫痫发作的识别和睡眠障碍)。
摘要 - 目的:通过使用单个校准数据,当前的最新方法显着提高了稳态诱发电位(SSVEP)的检测性能。但是,耗时的校准会限制了培训试验的数量,并可能导致视觉疲劳,从而削弱了单个培训数据的效率。为解决此问题,本研究提出了一种新型的受试者间和受试者内最大相关性(IISMC)方法,以通过采用跨主体间和受试者的相似性和可变性来增强SSVEP识别的鲁棒性。通过有效的转移学习,在相同任务下的类似经验在主题之间共享。方法:IISMC从自己和其他受试者中提取主题的特定信息和与任务相关的相似信息,通过最大化和内部对象内相关性来执行相同任务。多个弱分类器是由几个现有主题构建的,然后集成以通过平均加权来构建强晶格。最后,为目标识别获得了强大的融合预测指标。结果:在35个受试者的基准数据集上验证了所提出的框架,实验结果表明,IISMC获得的性能要比与TART与任务相关的成分分析(TRCA)的状态更好。明显:所提出的方法具有开发高速BCI的巨大潜力。
摘要 自从我们这个技术时代的自动化革命以来,各种各样的机器或机器人逐渐开始重新配置我们的生活。随着这种扩展,这些机器似乎面临着一个新的挑战:涉及生死后果的更自主的决策。本文通过以下问题探讨了人工智能道德主体的哲学可能性:机器能否获得成为道德主体所需的认知能力?在这方面,我打算从规范认知的角度揭示我们可以将人工智能实体识别为真正的道德实体的最低标准。虽然我的建议应该从合理的抽象层面来考虑,但我将批判性地分析和确定人工智能主体如何整合这些认知特征。最后,我打算讨论它们的局限性或可能性。
基于多模态生理信号的情绪识别受到越来越多的关注,然而如何处理多模态生理信号的一致性和异质性,以及不同主体之间的个体差异,是跨主体情绪识别的两个重要挑战。本文提出了一种多级解缠结网络MDNet,用于基于多模态生理信号的跨主体情绪识别。具体而言,MDNet由模态级解缠结模块和主体级解缠结模块组成。模态级解缠结模块将多模态生理信号投影到模态不变子空间和模态特定子空间,捕获模态不变特征和模态特定特征。主体级解缠结模块从多模态数据中分离出不同主体间主体共享特征和主体私有特征,从而促进跨主体情绪识别。在两个多模态情感数据集上进行的实验表明,MDNet 优于其他最先进的基线。
参考文献。 [1] Allen 等人 (2022 年)。一个庞大的 7T fMRI 数据集,用于连接认知神经科学和人工智能。自然神经。 [2] Ilharco 等人 (2021 年)。OpenCLIP。 [3] Podell 等人 (2023 年)。Sdxl:改进潜在扩散模型以进行高分辨率图像合成。ICLR。 [4] Meng 等人 (2022 年)。SDEdit:使用随机微分方程引导图像合成和编辑。ICLR。 [5] Reddy 等人 (2010 年)。读懂心灵之眼:在心理意象过程中解码类别信息。神经图像。 [6] Wallace 等人 (2022 年)。RTCloud:一种基于云的软件框架,用于简化和标准化实时 fMRI。神经图像。 [7] Scotti 等人 (2023 年)。重建心灵之眼:具有对比学习和扩散先验的 fMRI 到图像。NeurIPS。
摘要:认知工作量是涉及动态决策和其他实时和高风险情况的任务中的关键因素。神经成像技术长期以来一直用于估计认知工作量。与 fMRI 和其他神经成像方式相比,EEG 具有便携性、成本效益和高时间分辨率,因此使用 EEG 估计个人工作量的有效方法至关重要。已知多种认知、精神和行为表型与“功能连接”有关,即不同大脑区域之间的相关性。在这项工作中,我们探索了使用不同的无模型功能连接指标以及深度学习来有效分类参与者的认知工作量的可能性。为此,在 19 名参与者执行传统 n-back 任务时收集了他们的 64 通道 EEG 数据。这些数据(预处理后)用于提取功能连接特征,即相位转移熵 (PTE)、相互信息 (MI) 和相位锁定值 (PLV)。选择这三个特征对有向和非有向无模型功能连接指标进行全面比较(允许更快的计算)。利用这些特征,使用三个深度学习分类器,即 CNN、LSTM 和 Conv-LSTM 将认知工作量分类为低(1-back)、中(2-back)或高(3-back)。由于 EEG 和认知工作量的受试者间差异很大,并且最近的研究强调基于 EEG 的功能连接指标是特定于受试者的,因此使用了特定于受试者的分类器。结果显示,MI 与 CNN 的组合具有最先进的多类分类准确率,为 80.87%,其次是 PLV 与 CNN 的组合(75.88%)和 MI 与 LSTM 的组合(71.87%)。PLV 与 Conv-LSTM 的组合和 PLV 与 CNN 的组合实现了最高的受试者特定性能,准确率为 97.92%,其次是 MI 与 CNN 的组合(95.83%)和 MI 与 Conv-LSTM 的组合(93.75%)。结果强调了基于 EEG 的无模型功能连接指标和深度学习相结合对分类认知工作负荷的有效性。这项工作可以进一步扩展,以探索在实时、动态和复杂的现实场景中对认知工作负荷进行分类的可能性。
基于人工智能的决策系统在许多高风险领域的广泛应用引发了人们对这些系统公平性的担忧。由于这些系统将对受其决策影响的人产生现实后果,因此了解这些决策主体认为系统是公平的还是不公平的至关重要。在本文中,我们通过重复交互的视角扩展了之前在这方面的研究——我们提出,当决策主体与基于人工智能的决策系统反复交互,并能够通过决定是否留在系统中来战略性地响应系统时,哪些因素会影响决策主体对系统的公平感知和保留,以及如何影响。为了回答这些问题,我们在基于人工智能的贷款系统中进行了两次随机人类受试者实验。我们的结果表明,在与基于人工智能的决策系统的反复交互中,总体而言,决策主体对系统的公平感知和保留受到系统是否偏向主体自己所属群体的显著影响,而不是系统是否以公正的方式对待不同的群体。然而,不同资质水平的决策主体对人工智能系统在不同群体之间产生的偏见或人工智能系统偏袒/歧视自己群体的倾向有不同的反应。最后,我们还发现,虽然主体在基于人工智能的决策系统中的保留很大程度上取决于他们自己从系统获得有利决策的前景,但他们对系统的公平性感知却受到系统对其他群体的人的待遇的复杂影响。
量子力学的解释必须具备哪些条件才算可行?我们认为一个至关重要的标准是:任何成功的量子力学解释都必须解释我们的经验证据如何让我们了解量子力学。也就是说,量子力学的解释必须能够合理地说明经验证实如何在量子力学实验的背景下发挥作用,否则整个项目就会弄巧成拙:我们无法理性地相信一种理论的解释,如果这种解释告诉我们没有充分的理由相信该理论本身是正确的,因为我们相信这种解释的唯一理由就是我们相信该理论是正确的!在埃弗雷特解释的背景下,“概率问题”和相关的证实问题已经得到了广泛的讨论[1-5],但很明显,其他解释也假设我们对观察者和现实之间关系的通常看法发生了重大变化,也容易受到类似的反对。在本文中,我们将集中讨论有时被称为“正统”解释[6]或“哥本哈根式”解释[7]的一类解释。这些解释只假定“幺正动力学表征状态向量的动态演化”,并且“否认我们应该将系统视为具有独立于观察者的状态”[6]。正统解释不同于埃弗雷特解释,因为它们告诉我们测量具有唯一的结果,但这些结果相对于观察者而言是相对的。正统解释的例子包括哥本哈根解释[8–10]、新哥本哈根解释[11–17]、量子比主义[18]、实用主义解释[19]和某些版本的关系量子力学[20]1。某些形式的“它来自比特”假设也可能属于这一类[22,23]2。人们已经观察到,这种解释挑战了关于测量结果和其他宏观事件的标准科学理论——主体间性[24–28],即它们意味着测量和其他宏观事件通常不会对所有宏观观察者产生相同的结果。正统解释的支持者历来对这一事实持相当傲慢的态度——毕竟,量子力学的每种解释都有一些特征似乎与我们的经典直觉不同,因此,在这方面,正统解释似乎并不比其他方法更糟糕。然而,这种讨论忽略了一个事实,即主体间性在经验证实过程中起着至关重要的作用,因此,正统解释中主体间性的失败意味着这些方法在满足关键标准方面存在严重困难,即表明我们的经验证据如何使我们能够了解量子力学。这不仅仅是学会接受与我们的古典直觉相冲突的东西的问题:如果这些方法中没有合理的经验证实说明,那么相信它们向我们呈现的世界图景就是不合理的,无论我们在其他方面可能觉得它有多么有吸引力或没有吸引力。在本文中,我们将首先展示主体间性在正统解释中失败的方式,并解释为什么主体间性对于经验证实很重要。我们将详细研究信念更新在正统解释所假设的宇宙中可能如何运作,我们将
摘要 目的。在许多现实世界的决策任务中,决策者可获得的信息是不完整的。为了解释这种不确定性,我们为每个决策关联一定程度的置信度,表示该决策正确的可能性。在本研究中,我们分析了 68 名参与者进行八个不同感知决策实验的脑电图 (EEG) 数据。我们的目标是调查 (1) 是否存在与受试者和任务无关的决策信心神经相关性,以及 (2) 在多大程度上可以构建能够在逐次试验基础上估计信心的脑机接口。实验涵盖了广泛的感知任务,从而可以将与任务相关的决策特征与与任务无关的特征分开。方法。我们的系统训练人工神经网络,根据 EEG 数据和响应时间预测每个决策的信心度。我们将解码性能与三种训练方法进行了比较:(1) 单个受试者,训练数据和测试数据均来自同一个人; (2) 多主体,所有数据都属于同一任务,但训练和测试数据来自不同的用户;(3) 多任务,训练和测试数据来自不同的任务和主体。最后,我们使用另外两个实验的数据验证了我们的多任务方法,其中未报告置信度。主要结果。我们发现在刺激锁定和反应锁定时期,不同置信度水平的 EEG 数据存在显著差异。我们所有的方法都能够比相应的参考基线好 15% 到 35% 之间的置信度进行预测。意义。我们的结果表明,即使使用迁移学习方法,也可以从神经信号中重建对感知决策任务的置信度。这些置信度估计基于决策过程,而不仅仅是置信度报告过程。