目标系统。虽然整个软件系统都有自己的漏洞,但现在可以通过传统的测试和评估、验证和确认以及网络安全视角来了解这些漏洞。引入 AI 子系统可能会引入新的、未知的和独特的漏洞,这些漏洞目前基本上尚未被探索。用于识别和防范新旧威胁的工具正在涌现。例如,MITRE 与业界和政府密切合作,以捕获此类威胁,并在 MITRE 人工智能系统对抗威胁形势 (ATLAS)™ 框架中记录相关的对手策略、技术和程序。1 在 ATLAS 的基础上并与 Microsoft 合作,MITRE 发布了用于对融合 AI 网络系统进行红队测试的工具,如 Arsenal。2 与此同时,十年来的人工智能保证研究正在转化为强大的行业最佳实践,例如模型卡,它确定了人工智能模型的使用界限,并可以帮助告知开发人员、政策制定者、伦理学家和用户。3