可信计算组 (TCG) 定义的可信平台模块 (TPM) 是一种小型安全协处理器,可以作为独立组件,也可以作为其他组件(如微处理器)的一部分。大多数企业级笔记本电脑和台式机都包含 TPM 2.0 版,因为 Microsoft 要求 Windows 8.1 或更高版本必须安装该版本。对于服务器,TPM 通常是一个附加组件,需要由管理员和采购官员在订购清单中指定。服务器采购应确保在订购这些设备时包含可选的 TPM。对于国防部,DODI 8500.01“网络安全”[5] 要求购买带有 TPM 的国防部计算机资产。
然而,我们知道这些人工智能系统可能很脆弱且不公平。在停车标志上添加涂鸦会欺骗分类器,使其认为这不是停车标志 [Eykholt 等人2017]。在良性皮肤病变图像中添加噪声会欺骗分类器,使其认为它是恶性的 [Finlayson 等人 2019]。美国法院使用的风险评估工具已被证明对黑人存在偏见 [Angwin 等人2016]。企业招聘工具已被证明对女性存在偏见 [Dastin 2018]。那么,我们如何才能兑现人工智能带来好处的承诺,同时解决这些对人类和社会产生重大影响的情况呢?简而言之,我们如何实现可信赖的 AI?1.从可信赖计算到可信赖的 AI 具有里程碑意义的 1999 年国家科学院网络空间信任报告为可信赖计算奠定了基础,并继续成为一个活跃的研究领域 [NRC 1999]。美国国家科学基金会启动了一系列关于信任的项目。从可信赖计算(2001 年启动)开始,然后是网络信任(2004 年),然后是可信赖计算(2007 年),现在是安全和可信赖系统(2011 年),计算机和信息科学与工程理事会已经发展了可信赖计算的学术研究社区。尽管它始于计算机科学界,但对可信计算研究的支持现已涵盖 NSF 的多个理事会,并涉及许多其他资助组织,包括通过网络和信息技术研究与开发 (NITRD) 计划的 20 个联邦机构。行业也是可信计算的领导者和积极参与者。凭借比尔盖茨 2002 年 1 月的“可信计算”备忘录 [Gates 2002],微软向其员工、客户、股东和其他信息技术部门发出了可信软件和硬件产品的重要性。它提到了微软内部
组织需要能够根据业务需求以一致、可重复和自动化的方式监控、跟踪、应用和执行其云工作负载的安全和隐私政策。基于 NIST 内部报告 (IR) 7904《云中的可信地理位置:概念验证实施》中记录的先前 NIST 工作,国家网络安全卓越中心 (NCCoE) 开发了一种可信云解决方案,该解决方案展示了如何利用硬件信任根的可信计算池提供必要的安全功能。这些功能不仅可以确保云工作负载在可信硬件和可信地理位置或逻辑边界上运行,还可以改善对工作负载中的数据和工作负载之间数据流的保护。
8 月 27 日,经济发展部宣布联邦项目已获通过,联邦项目摘要文件文本出现在一些在线出版物中。联邦项目的各个要素由经济发展部(负责 AI 生态系统)、通信部(AI 实施、数据集开发)和工业和贸易部(设备生产)协调。据报道,重点是发展“强 AI”领域的研究中心、可信计算机系统、计算机视觉、语音合成和识别以及 AI 就业的道德方面。我们注意到,DeepMind 和 OpenAI 等公司的目标中提到“强 AI”等同于人类智能,这似乎过于雄心勃勃,文件中对它的提及可能代表了缺乏更广泛理解的“强 AI”的目标。
产品篡改和未经授权的替换可能发生在供应链的任何地方。英特尔已与我们的 OEM 和 ODM 支持合作伙伴一起推出了英特尔® 透明供应链服务,以增强端到端设备安全性。有了可信的供应链保证,公司可以降低供应链篡改的风险,并将收到假冒零件的可能性降至最低,最终保护宝贵的公司数据。本文探讨了英特尔® TSC 服务的基础机制:即可信供应链(基于使用可信计算组织的可信平台模块标准建立的硬件信任根)和自动验证工具(为用户提供可追溯性、可追溯性、保证性和安全性),以建立对供应链的信任并减轻由于供应链篡改而导致网络攻击的可能性。
摘要 —“大数据”应用的爆炸式增长对传统计算机系统的速度和可扩展性提出了严峻挑战。由于传统冯·诺依曼机的性能受到 CPU 和内存之间越来越大的性能差距(“称为内存墙”)的极大阻碍,神经形态计算系统引起了广泛关注。生物学可信计算范式通过模拟神经元和突触电位的充电/放电过程进行计算。独特的尖峰域信息编码实现异步事件驱动的计算和通信,因此具有非常高的能源效率的潜力。本综述回顾了现有神经形态计算系统的计算模型和硬件平台。首先介绍神经元和突触模型,然后讨论它们将如何影响硬件设计。进一步介绍了几个代表性硬件平台的案例研究,包括它们的架构和软件生态系统。最后,我们提出了几个未来的研究方向。
傅晓燕,国防科技大学计算机学院量子信息研究所、高性能计算国家重点实验室,中国 余金涛,数学工程与先进计算国家重点实验室,中国 苏星,国防科技大学计算机学院,中国 蒋涵如,鹏程实验室量子计算中心,中国 吴华,华东师范大学上海市可信计算重点实验室,中国 程福成、邓曦、张金荣,鹏程实验室量子计算中心,中国 金磊、杨逸航、徐乐、胡春超,郑州大学信息工程学院,中国 黄安琪、黄光耀、强小刚、邓明堂、徐萍、徐伟霞,国防科技大学计算机学院量子信息研究所、高性能计算国家重点实验室,中国 万伟刘先生,国防科技大学计算机学院计算机科学系,中国 张宇先生,中国科学技术大学计算机科学与技术学院,中国
摘要 - 人工智能系统(机器学习)在关键领域(航空电子、自主运动等)的开发和使用不可避免地引发了对所用软件可靠性的质疑。可信计算系统已经存在很长一段时间了。其目的是只允许执行某些应用程序,并保证此类应用程序的运行不受干扰。在这种情况下,信任是对分配的应用程序按测试时的方式运行的信心。但对于机器学习来说,这还不够。应用程序可能按预期工作,没有干扰,但由于数据发生了变化,结果不可信任。总的来说,这个问题是所有机器学习系统的一个基本点的结果:测试(操作)阶段的数据可能与系统训练时的数据不同。因此,机器学习系统可能会在没有任何针对性的操作的情况下被破坏,仅仅是因为我们在操作阶段遇到的数据在训练阶段实现的泛化不起作用。还有一些攻击被理解为对机器学习管道元素(训练数据、模型本身、测试数据)产生特殊影响,目的是实现系统的期望行为或阻止其正确运行。如今,这个普遍与机器学习系统稳定性有关的问题,是机器学习在关键应用中使用的主要障碍。
构建值得信赖的自主系统具有挑战性,原因有很多,不仅仅是试图设计出“始终做正确的事情”的代理。在人工智能和 HRI 中,还有一个更广泛的背景往往没有被考虑:信任问题本质上是社会技术问题,最终涉及到一系列复杂的人为因素和多维关系,这些因素可能出现在代理、人类、组织甚至政府和法律机构之间,每个机构对信任都有自己的理解和定义。这种复杂性对开发值得信赖的人工智能和 HRI 系统构成了重大障碍——虽然系统开发人员可能希望他们的系统“始终做正确的事情”,但他们通常缺乏确保这一结果的实用工具和法律、法规、政策和道德方面的专业知识。在本文中,我们强调了信任的“模糊”社会技术方面,以及在设计和部署过程中仔细考虑它们的必要性。我们希望通过以下方式为人工智能和 HRI 中的可信工程讨论做出贡献:i)描述在处理可信计算和可用信任模型的需求时必须考虑的策略前景,ii)强调在系统工程过程中进行可信设计干预的机会,以及 iii)引入“策略即服务”(PaaS)框架的概念,人工智能系统工程师可以随时应用该框架来解决开发和(最终)运行时过程中的模糊信任问题。我们设想,PaaS 方法将策略设计参数的开发和策略标准的维护工作转移给策略专家,这将使自然界的智能系统具有运行时信任能力。
摘要 — 机器人技术一直是提高人类生产力不可或缺的一部分,因为它们一直在帮助人类以快速、准确和高效的方式完成各种复杂且密集的任务。因此,机器人技术已被部署到从个人到工业用例的广泛应用中。然而,当前的机器人技术及其计算范式仍然缺乏具身智能,无法有效地与操作环境交互、以正确/预期的动作做出反应并适应环境的变化。为此,使用脉冲神经网络 (SNN) 的神经形态计算的最新进展已经证明了通过模仿生物大脑工作方式的生物可信计算范式(称为“神经形态人工智能 (AI)”)实现机器人具身智能的潜力。然而,基于神经形态人工智能的机器人领域仍处于早期阶段,因此其开发和部署用于解决现实问题在准确性、适应性、效率、可靠性和安全性等不同设计方面面临新的挑战。为了应对这些挑战,本文将讨论如何从以下几个角度为机器人系统实现具身神经形态人工智能:(P1)基于有效学习规则、训练机制和适应性的具身智能;(P2)节能神经形态计算的跨层优化;(P3)具有代表性和公平性的基准;(P4)低成本可靠性和安全性增强;(P5)神经形态计算的安全性和隐私性;(P6)节能和稳健的神经形态机器人的协同发展。此外,本文还确定了研究挑战和机遇,并阐述了我们对未来机器人具身神经形态人工智能研究发展的愿景。