详细内容或原文请订阅后点击阅览
作者访谈:人工智能、化学和化学武器的威胁
对化学家和人工智能安全研究员 Ryan Stendall 博士的独家采访。
来源:詹姆斯马丁防扩散研究中心信息2024 年 11 月 18 日 Natasha Bajema 博士,CNS 高级研究员
2024 年 11 月 18 日 Natasha Bajema 博士,CNS 高级研究员收听访谈音频播放器
收听访谈 音频播放器 下载 .MP3在我们的独家采访中,了解内部人士对人工智能与化学武器之间令人震惊的交集的看法,其中 Natasha Bajema 博士与开创性文章的合著者 Ryan Stendall 博士进行了交谈:“大型语言模型如何帮助参与者达到进行化学攻击所需的能力阈值?”
在采访中,化学家和人工智能安全研究员 Stendall 阐明了 ChatGPT 等人工智能模型降低化学武器开发和使用障碍的潜力。他认为,与核武器或生物武器相比,化学武器由于相对简单易得,是恶意行为者“唾手可得的果实”。
采访探讨了恶意行为者如何利用传统的聊天机器人界面和 API 来促进化学武器攻击的各个阶段。 Stendall 分享了一些令人震惊的例子,说明他和他的合著者如何从 AI 模型中提取敏感信息。虽然像 ChatGPT 这样的模型拒绝提供有关 Sarin 等知名药剂的信息,但它们很容易通过简单的提示提供详细而准确的说明,以合成类似强效的类似物 Cyclosarin。这凸显了当前护栏的局限性,以及采取主动措施以应对 AI 模型不断发展的能力的必要性。
展望未来,Stendall 强调了以下几点的重要性:
- 对 LLM 进行全面的发布前评估对 LLM 化学药剂的监管在开源社区内建立健全的安全规范对科学家进行人工智能和化学安全方面的培训