所谓的人工智能 (AI) 正在渗透到我们的公共和通信结构中。2019 年曝光的荷兰儿童保育福利丑闻表明,人工智能的不透明性对本已脆弱的群体有多么不利。事后,许多学者呼吁需要更可解释的人工智能,以便决策者可以干预歧视性制度。促进人工智能的可解释性 (XAI) 是解决这个问题的一个良好开端,但不足以让弱势群体有能力充分应对其影响。作为数据和计算机科学的典范,XAI 旨在通过更简单的模型来说明和解释复杂的人工智能,使其更易于访问和合乎道德。问题是,在这样做的过程中,XAI 将透明度非政治化为算法不透明性的补救措施,将透明度视为人为剥夺其意识形态意义。透明度被视为意识形态的解药,尽管我将展示这是一种会产生后果的意识形态举措。例如,它使我们过于关注算法的不透明性,而不是解释人工智能更广泛的力量。其次,它阻碍了我们就谁掌握着对人工智能的解释、应用或批评的权力展开辩论。问题在于,那些受到人工智能影响或歧视的人,就像荷兰的情况一样,几乎没有工具来处理人工智能作为一个系统的不透明性,而那些关注数据不透明性的人正在塑造素养讨论。为了解决这些问题,我建议超越对算法透明度的关注,转向后批判人工智能素养,以加强对访问、赋权和抵抗的辩论,同时不将可探索人工智能作为一个领域,也不将算法透明度作为一种意图。我在这里挑战的是将透明度视为非政治化和算法问题的霸权,并将人工智能的可解释性视为公民赋权的充分途径。关键词
摘要 — 近年来,神经科学家一直对脑机接口 (BCI) 设备的开发很感兴趣。运动障碍患者可能受益于 BCI 作为一种交流方式和运动功能恢复。脑电图 (EEG) 是评估神经活动最常用的方法之一。在许多计算机视觉应用中,深度神经网络 (DNN) 显示出显着的优势。为了最终使用 DNN,我们在此介绍一种浅层神经网络,它主要使用两个卷积神经网络 (CNN) 层,具有相对较少的参数并能快速从 EEG 中学习频谱时间特征。我们将此模型与其他三种具有不同深度的神经网络模型进行了比较,这些模型应用于适合患有运动障碍和视觉功能下降患者的闭眼状态心算任务。实验结果表明,浅层 CNN 模型优于所有其他模型,并实现了 90.68% 的最高分类准确率。它在处理跨主题分类问题时也更加强大:准确率标准差仅为 3%,而传统方法的准确率标准差为 15.6%。
摘要 脑机接口系统从脑电图 (EEG) 信号中解码大脑活动,并将用户的意图转化为控制和/或与增强或辅助设备通信的命令,而无需激活任何肌肉或周围神经。在本文中,我们旨在通过一种新颖的进化方法(基于融合的预处理方法)使用改进的 EEG 信号处理技术来提高这些系统的准确性。这种方法的灵感来自染色体交叉,即同源染色体之间遗传物质的转移。在本研究中,提出的基于融合的预处理方法被应用于从 29 名受试者收集的开放获取数据集。然后,通过自回归模型提取特征并用 k 最近邻分类器进行分类。我们对基于二元心算 (MA) 的 EEG 信号检测实现了 67.57% 到 99.70% 的分类准确率 (CA)。除了获得 88.71% 的平均 CA 之外,93.10% 的受试者在使用基于融合的预处理方法时表现出了性能改进。此外,我们将所提出的研究与共同平均参考 (CAR) 方法进行了比较,并且没有应用任何预处理方法。所取得的结果表明,所提出的方法分别比 CAR 和未应用任何预处理方法提供了 3.91% 和 2.75% 更好的 CA。结果还证明了所提出的进化预处理方法在对 MA 任务期间记录的 EEG 信号进行分类方面具有巨大潜力。