作战技术 (OT) — 包括工业控制系统 (ICS)、信息物理系统 (CPS)、工业物联网 (IIoT) 和其他技术 — 在动能战争中发挥着至关重要的作用。这涵盖了嵌入国防部 (DoD) 各种关键任务资产以及作战所依赖的系统(例如设施、燃料、物流、制造、医疗、空间和武器系统 1)的各种形式的 OT。事实上,国防部拥有 400 多个基地、250,000 个设施和 400,000 个建筑物,是世界上最大的 OT 资产所有者和运营商之一,估计拥有超过 26 亿台 OT 设备。国防部维护着各种高度分布和异构的 OT 设备,涵盖超过 90,000 个操作系统。这些 OT 设备中有许多也已过时,实际上本质上是不安全的,有些设备已有 30 多年历史 2 。因此,OT 对于在战区内实现作战人员的动能军事行动至关重要。任何对 OT 系统的破坏都会严重影响国防部行使武力的能力。鉴于 OT 系统出了名的脆弱性及其相关的网络安全挑战,这一点非常令人担忧。除了军事技术中的 OT 之外,支撑国内关键基础设施的 OT 通常是参与网络战的民族国家的预定目标,也就是说,即使在没有持续的动能军事冲突的情况下也是如此。这样的例子比比皆是,例如伊朗和以色列之间正在进行的网络战,据报道,水利设施和加油站都遭受了网络攻击 3,4 。OT 还处于动能战和网络战的交叉点,通常被称为“混合战争”。2008 年俄格战争中俄罗斯对格鲁吉亚的进攻被广泛认为是这种动能战和网络战相结合的“混合战争”的首例。正如 David Hollis 在 Smalls Wars Journal 的案例研究中所述,“这似乎是历史上第一例与其他作战领域(包括陆、空、海、天)的主要作战行动同步进行的协调网络空间领域攻击” 5 。在这次战役中,俄罗斯采用了各种技术、战术和程序 (TTP),包括通过分布式拒绝服务 (DDoS) 攻击破坏格鲁吉亚政府网站、破坏这些网站、重新路由格鲁吉亚互联网流量以及获得对新闻机构的外部控制 6 。当今的混合冲突自 2008 年以来取得了重大进展。这些努力使俄罗斯能够控制各种叙述并中断格鲁吉亚的通信;然而,这次行动似乎仅针对信息技术 (IT),并未破坏 OT 系统 7。微软的“特别报告:乌克兰”8 对此进行了详细说明。在与动能军事行动协调的众多俄罗斯网络攻击中,微软、ESET 和 CERT-UA 发现了一次针对乌克兰能源公司 ICS 的擦除器攻击。这被认为源于一种名为“沙虫”的高级持续性威胁 (APT),该威胁组织还对 2015 年乌克兰电网的网络攻击以及 2008 年针对格鲁吉亚的 DDoS 攻击负责 9,10。此次攻击的预先部署阶段发生在冲突前几周,破坏性恶意软件的部署发生在冲突的第 6 周,即 3 月 31 日至 4 月 8 日 11 。这次攻击也被称为“Industroyer 2.0” 12 。上面详述的活动展示了如何将关键基础设施与动能军事行动结合起来,以产生重大影响。破坏一个国家的能源供应和其他关键基础设施即使在和平时期也会导致大规模的社会和经济混乱,在战争时期甚至会造成更大的破坏。我们还没有看到公开记录表明 OT 的场景
值得信赖(Jobin 等人,2019 年)。例如,美国政府推进“可信赖人工智能的开发和使用”(国家人工智能计划办公室,2021 年)。同样,欧盟也制定了“可信赖人工智能的道德准则”(欧盟委员会,2019 年)。可信度被认为是人工智能赢得信任的必要条件,而信任反过来“也是人工智能在我们的日常生活中得到富有成效和普遍使用所必需的”(IEEE 2017,第 2 页)。虽然从规范的角度来看这种说法是直观的,但它也基于信任需要可信度的经验假设。然而,几乎没有证据支持人工智能的这一论点。本研究的目的是调查用户对人工智能学习道德顾问的可信度有多敏感。人工智能算法已经征服了人员招聘、贷款分配、刑事判决或自动驾驶等领域(Rahwan 等人,2019 年)。它们做出并帮助我们做出至关重要的决策,并实际上已成为道德主体(Whitby,2011 年;Voiklis 等人,2016 年)。特别是,算法可以充当其人类用户的道德顾问,而人类仍然做出决策并对此负责。人类参与算法决策增强了对算法的感知控制,并被发现可以增加信任(Dietvorst 等人,2015 年;Burton 等人,2020 年)。因此,参与其中的人被认为是打造值得信赖的人工智能的基石(欧盟委员会,2019 年)。然而,这种说法假设人类用户不会天真地信任算法,无论算法多么值得信赖,而是会仔细检查其建议,并在出现危险信号时做出自己的决定。对于学习型人工智能而言,训练数据的透明度和完整性是算法值得信赖的最低要求(IEEE,2017 年;Lepri 等人,2018 年;欧盟委员会,2019 年)。人们对算法的一个主要担忧是它们有偏见(Mittelstadt 等人,2016 年;Jobin 等人,2019 年),而透明度可以帮助缓解这一担忧。首先,我们探讨如果用户对算法如何生成建议一无所知,他们是否会信任算法的道德建议。我们的基准是基于公正的人类顾问的判断的人工智能生成的建议。虽然人类的判断是出了名的不透明,但公正的顾问的概念会让人联想到理想的观察者,并让被建议者了解建议是如何产生的(Jollimore,2021 年)。因此,如果用户知道算法是根据公正的人类顾问的判断进行训练的,那么算法对用户来说就比对算法如何生成道德建议一无所知时更加透明。其次,我们研究当算法训练数据的完整性值得怀疑时,用户是否信任算法的建议。具体来说,我们假设许多人不信任被定罪的罪犯的道德建议。事实上,道德判断会受到病态特征的损害(Campbell 等人,2009 ;Jonason et al., 2015 ;Blair, 2017 ),这在犯罪者中很常见。最近也有证据表明,犯罪者的判断相对于平均人群存在偏差(Koenigs et al., 2011 ;Young et al., 2012 ;Lahat et al., 2015 )。当然,犯罪并不一定源于缺乏道德判断。人们常常知道什么是对的,但仍然做错事。我们仍然可以合理地假设,来自罪犯的训练数据被认为是有偏见的,教育、就业和住房方面的歧视表明了对罪犯的根深蒂固的不信任(Sokoloff & Schenck-Fontaine, 2017 ;Evans et al., 2019 ;Sugie et al., 2020 )。