红队在生物攻击中使用人工智能的风险

兰德公司的一项实验汇集了数十名研究人员,对计划进行生物攻击的坏人进行角色扮演。有些人可以访问大型语言模型,而另一些人只能访问互联网。专家小组对每个团队的计划是否可行进行了评分。

来源:兰德网络与数据科学信息

这是一个噩梦般的场景:恐怖组织利用人工智能 (AI) 的力量策划毁灭性的生物袭击。但兰德公司最近的一项实验表明,这仍然超出了当今的技术范围。即使是先进的计算机语言模型也并不比简单的谷歌搜索好。

兰德公司实验

该实验汇集了数十名研究人员,让他们扮演坏人。一些人有生物学背景;其他人有计算机科学背景;还有一些人有作战规划背景。他们被分成小组,然后有七周的时间来描述进行生物袭击需要做些什么。

其中一些小组可以使用大型语言模型,即使用大量训练数据以类似人类的方式回答问题的人工智能系统。其他人只能访问互联网。两者的安全协议都很严格。研究人员没有使用任何机密信息,所有研究都在受保护的网络上进行。实验的最终报告没有披露有关团队制定的计划的任何具体细节。

专家组对每个团队的计划是否可行进行了评分。大多数计划都存在重大缺陷,介于有问题和不可行之间。但使用大型语言模型的团队和仅使用互联网的团队之间的得分差异并不大。

这项实验汇集了数十名研究人员,让他们扮演坏人。

得分最高的团队确实是一支完全由擅长使用大型语言模型的研究人员组成的团队。但当组织者查看该团队的聊天记录时,他们发现其计划并非基于来自人工智能的信息。相反,它深入研究了有关病毒研究的学术文献,所有这些都可以在网上找到。

策划生物攻击仍然超出了现有人工智能系统的能力

—Doug Irving

Doug Irving