NIST 重新思考人工智能保护方法

自治系统的激增破坏了软件行为是确定性的、组件之间的边界是稳定的以及人们处于控制之中的基本假设。

来源:OSP网站大数据新闻

多年来,网络安全专家一直遵循这样一个事实:新技术有其自身的特点,但不会产生根本性的新问题。按照这个观点,人工智能就是普通软件,只是更快、更复杂、更强大。因此,在美国国家标准与技术研究院(NIST)组织的一次研讨会上,提出了保护传统系统的控制措施很大程度上可以用于保护人工智能的观点。在这种情况下,您不必重新开始。

然而,随着讨论转向人工智能代理,这个概念开始崩溃。专家们展示了人工智能如何破坏基于系统行为是确定性的、组件之间的边界是稳定的以及人们完全控制情况的假设的基本方法。

新的 NIST 举措标志着即将转向专门的安全标准,这些标准必须解决自主系统的独特风险,包括人工智能代理的不可预测行为和数据攻击的漏洞。一月初,人工智能标准与创新中心发布了一份关于人工智能代理安全的正式信息请求(RFI),该系统可以在没有人类持续监督的情况下做出自主决策并与现实世界交互。该文件重点关注能够执行影响现实世界环境的自主行动的人工智能系统,并寻求有关新出现的风险、安全评估和保证方法以及部署限制的信息。 NIST 举措旨在从开发、部署、识别、隐私和对手滥用等多个角度加强人工智能系统的安全性,并包括以下组成部分。

- 屈光度。用于评估值得信赖的人工智能性能的测试平台。