军事人工智能 (AI) 技术可能仍处于相对起步的阶段,但关于如何规范其使用的辩论已经如火如荼地展开。大部分讨论都围绕着自主武器系统 (AWS) 及其表面上可能产生的“责任差距”展开。本文认为,虽然一些军事人工智能技术确实可能在个人责任领域造成一系列概念障碍,但它们并不会在国家责任法下引发任何独特问题。以下分析考虑了后一种制度,并列出了将其应用于因使用人工智能军事技术而导致的可能违反国际人道主义法 (IHL) 基石——区分原则——的关键环节。它表明,在涉及 AWS 的案件中归咎责任的任何挑战都不会由人工智能的纳入引起,而源于国际人道主义法先前存在的系统性缺陷及其下错误不明确的后果。文章重申,国家对 AWS 部署的影响承担的责任始终由指挥官根据国际人道法授权部署武器承担。然而,有人提出,如果所谓的完全自主武器系统(即基于机器学习的致命系统,能够在预定框架之外改变自己的操作规则)投入使用,将其行为归咎于部署国可能更为公平,将其概念化为国家代理人,并将其视为国家机关。
深度学习的人工智能 (AI) 技术以其出色的图像分类性能彻底改变了疾病诊断。尽管取得了出色的成果,但这些技术在临床实践中的广泛采用仍处于中等速度。主要障碍之一是经过训练的深度神经网络 (DNN) 模型提供了预测,但关于为什么以及如何做出该预测的问题仍未得到解答。这种联系对于受监管的医疗保健领域至关重要,可以提高从业者、患者和其他利益相关者对自动诊断系统的信任。由于健康和安全问题,深度学习在医学成像中的应用必须谨慎解读,类似于自动驾驶汽车事故中的归咎问题。假阳性和假阴性病例对患者的福祉影响深远,不容忽视。最先进的深度学习算法由复杂的互连结构、数百万个参数和“黑匣子”性质组成,与传统机器学习算法不同,人们对其内部工作原理的理解很少,这加剧了这种情况。可解释的人工智能 (XAI) 技术有助于理解模型预测,从而有助于建立对系统的信任,加速疾病诊断并满足监管要求。本综述全面回顾了生物医学成像诊断领域 XAI 的前景。我们还对 XAI 技术进行了分类,讨论了尚未解决的挑战,并提供了 XAI 的未来方向,这将引起临床医生、监管机构和模型开发人员的兴趣。