聊天机器人不会帮助任何人制造大规模杀伤性武器。但其他人工智能系统可能也会这样做

在过去的两年里,我们看到了很多关于人工智能 (AI)“前景与危险”的文章。有人认为人工智能系统可能有助于制造化学或生物武器。这些担忧有多现实?作为生物恐怖主义和健康情报领域的研究人员,我们一直在努力分离[…]

来源:ZME科学
AI 生成的图像。
AI 生成的图像。

在过去两年中,我们看到了很多关于人工智能 (AI) 的“前景与危险”的文章。有人认为 AI 系统可能有助于制造化学或生物武器。

前景与危险 化学或生物武器

这些担忧有多现实?作为生物恐怖主义和健康情报领域的研究人员,我们一直在努力将真正的风险与网上的炒作区分开来。

试图区分

“化学生物”武器的确切影响仍不确定。然而,很明显,法规没有跟上技术发展的步伐。

评估风险

评估 AI 模型带来的风险并不容易。更重要的是,没有一致且广泛遵循的方法来做到这一点。

以大型语言模型 (LLM) 为例。这些是 ChatGPT、Claude 和 Gemini 等聊天机器人背后的 AI 引擎。

9 月,OpenAI 发布了一款名为 o1(昵称“Strawberry”)的 LLM。发布后,开发人员声称新系统具有帮助某人制造生物武器的“中等”风险。

o1

这种评估可能听起来令人震惊。然而,仔细阅读 o1 系统卡会发现更多微不足道的安全风险。

系统卡

例如,该模型可能帮助未经训练的个人更快地浏览有关病毒的遗传信息的公共数据库。这种帮助不太可能对生物安全产生太大的实质性影响。

尽管如此,媒体很快报道称,新模型“显著增加了”武器化风险。

迅速报道

超越聊天机器人

当第一波 LLM 聊天机器人于 2022 年底推出时,有广泛报道称人们担心这些系统可能会帮助未经训练的个人引发大流行。

这些系统 但这就是全部 AlphaFold

像这样的人工智能系统是所谓“令人担忧的双重用途研究”的主要例子。

令人担忧的双重用途研究

朊病毒和大流行

十多年 鼠疫耶尔森氏菌 CBRN+AI

政治压力